Los primeros dos años del auge de la inteligencia artificial (IA) giraron en torno a los modelos de lenguaje grandes y monolíticos (LLMs, por sus siglas en inglés), como los que OpenAI utilizó para impulsar ChatGPT. Sin embargo, la estrategia que generó los mayores avances en inteligencia en estos modelos—ampliar su tamaño y aumentar su poder de cómputo—ahora está mostrando rendimientos decrecientes.
Resulta que los modelos pueden aprender solo hasta cierto punto a partir del preentrenamiento en vastas cantidades de contenido de internet. Sí, los modelos siguen mejorando, pero los expertos afirman que los avances en inteligencia ahora provienen principalmente de la inteligencia humana, como datos etiquetados por personas o retroalimentación humana sobre las salidas generadas.
Parece, entonces, que los modelos monolíticos no son el camino hacia la inteligencia artificial general (AGI, por sus siglas en inglés), en la cual la IA sería más inteligente que los humanos en una amplia variedad de tareas. Más bien, como sugirió el año pasado el CEO de Google DeepMind, Demis Hassabis, la AGI podría lograrse mediante un sistema de modelos de IA. En este, los LLMs trabajarían en conjunto con otros tipos de modelos de IA, algunos generativos y otros no.
Lllegar a una inteligencia artificial general es más compleja de lo que se pensaría
Los modelos de lenguaje grande están construidos sobre redes neuronales, ecuaciones matemáticas complejas inspiradas en el funcionamiento de las neuronas del cerebro humano. Muchos expertos creen que los sistemas de IA deben tomar mucho más prestado del cerebro humano para alcanzar niveles superiores de inteligencia sintética. (Véase el Proyecto Thousand Brains de Numenta).
Andrew Filev, fundador y CEO de Zencoder, señala que el cerebro humano es un sistema mucho más diverso que los LLMs actuales. “No es un sistema unificado… Hay cierta especialización en el cerebro”, dice Filev. “Lo que hace el hipocampo es muy diferente de lo que hace la corteza prefrontal. Es un sistema complejo con múltiples bucles de retroalimentación, múltiples niveles de operación y múltiples agentes independientes trabajando en segundo plano. Por ello, es lógico pensar que la IA terminará siendo igualmente compleja”.
Un LLM capaz de procesar múltiples tipos de medios (texto, imágenes, audio, video, etc.) jugará un papel clave en un sistema de IA, al igual que los modelos “críticos”, cuyo propósito principal será proporcionar retroalimentación sobre las salidas de los LLMs.
Aunque OpenAI no ha sido explícito sobre la arquitectura de su familia de modelos o1, es probable que sea un primer indicio de los sistemas de IA del futuro. La compañía ha dicho que o1 es capaz de probar diferentes enfoques para resolver un problema. También cuenta con un mecanismo para saber cuándo debe dar algunos pasos hacia atrás y trazar un nuevo camino hacia la solución. La compañía no ha confirmado si ese mecanismo es un modelo “crítico” separado, pero hay razones para sospechar que lo es. (Los LLMs tienen cierta capacidad de autocrítica, pero es limitada).
La idea de “un modelo para gobernarlos a todos”, un modelo superinteligente capaz de hacerlo todo, parece estar quedando obsoleta. Es más probable que, en última instancia, las organizaciones recurran a un ecosistema completo de cerebros sintéticos para lograr los efectos transformadores de la AGI.