ADVERTISEMENT

| Tech

Para tener una IA verdaderamente inteligente, necesitaríamos imitar los principios sensorimotores del cerebro

El cerebro humano ofrece una alternativa que reemplazará el aprendizaje profundo como la tecnología clave para desarrollar IA.

Para tener una IA verdaderamente inteligente, necesitaríamos imitar los principios sensorimotores del cerebro [Foto: Floaria Bicher/Adobe Stock]

En un ensayo reciente de Sam Altman titulado “The Intelligence Age”, el director ofreció una visión del futuro de la inteligencia artificial (IA). Afirma que con la IA, “resolver el cambio climático, establecer una colonia espacial y el descubrimiento de la física, eventualmente se volverán cosas comunes”. A nivel individual, mencionó, “cada uno de nosotros podrá tener un equipo de IA personal, lleno de expertos virtuales en diferentes áreas, trabajando juntos para crear casi cualquier cosa que podamos imaginar”. Según Altman, los beneficios de la IA pronto estarán disponibles para todos en el mundo.

Estas afirmaciones son absurdas y no deberíamos dejarlas pasar sin un poco de crítica. Los agricultores de subsistencia en Asia Central pueden imaginar vivir en una villa en la Riviera, pero ninguna IA hará que eso suceda. El “descubrimiento de toda la física”, si es que es posible, requerirá décadas o siglos de construir experimentos sofisticados, algunos de los cuales estarán ubicados en el espacio. La afirmación de que la IA hará esto común no tiene ni sentido.

Altman no se centró solo en afirmar que estamos al borde de crear máquinas súper inteligentes que resolverán la mayoría de los problemas del mundo. Esta es una opinión compartida por muchas de las personas que lideran empresas de IA. Por ejemplo, Dario Amodei, CEO de Anthropic, propuso que la IA pronto podrá lograr en cinco a diez años lo que los humanos, sin la ayuda de la IA, lograrían en cincuenta a cien años. Aunque no está garantizado, cree que la IA probablemente eliminará la mayoría de los cánceres, curará la mayoría de las enfermedades infecciosas y duplicará la esperanza de vida humana. Estos avances ocurrirán porque la IA será mucho más inteligente que los humanos. Como lo expresó, seremos “un país de genios”, aunque serán “genios en un centro de datos”.

¿Es la IA de verdad inteligente?

La IA actual se basa en una tecnología llamada deep learning (aprendizaje profundo). Altman y otros defensores del deep learning creen que para crear máquinas súper inteligentes, todo lo que necesitamos hacer es escalar esta tecnología. Si alimentamos cantidades cada vez mayores de datos a estos sistemas, utilizando computadoras más grandes, no habrá límite para lo que la IA pueda hacer. Esta creencia dio lugar a una carrera por construir cientos de enormes granjas de servidores en todo el mundo para ejecutar sistemas de IA de deep learning.

La IA actual es impresionante y útil. Hasta ahora, mejoró cuando se entrenó con más datos y computadoras más grandes. Pero, ¿eso es todo? ¿El desafío de construir una IA verdaderamente inteligente, capaz de cambiar el mundo ya está resuelto y lo único que queda por hacer es escalar los sistemas actuales? ¿La dominación y las ganancias de esta tecnología irán a las empresas tecnológicas que recojan más datos y construyan las granjas de servidores más grandes antes que nadie?

Hay muchos científicos de la IA que creen que los sistemas de deep learning no son inteligentes, que tienen limitaciones fundamentales que no se superarán haciendo que sean más grandes. Estoy de acuerdo con estas críticas, pero no vamos a hablar de eso en esta nota. En vez de eso, quiero hablar sobre los cerebros humanos. Los cerebros tienen una forma alternativa de construir IA, una que creo que reemplazará al deep learning como la tecnología central para crear esta tecnología. Este no es un punto de vista ampliamente sostenido hoy en día, pero lo será en el futuro.

Un plan basado en el cerebro

¿Por qué deberíamos preocuparnos por cómo funciona el cerebro? La respuesta debería ser obvia: El cerebro humano es lo único con lo que todos estamos de acuerdo en que es inteligente. Hasta este momento, todo lo que hemos asociado con la inteligencia ha sido creado por cerebros. Por lo tanto, es razonable suponer que entender cómo el cerebro crea inteligencia sería útil para crear máquinas inteligentes. No necesitamos replicar los cerebros exactamente, pero ignorar cómo funcionan sería una tontería.

El deep learning y los cerebros están construidos utilizando redes de neuronas. Sin embargo, las neuronas artificiales y las redes utilizadas en deep learning no son en absoluto como las neuronas reales y las redes que vemos en los cerebros. Son completamente diferentes. La mayoría de los defensores del deep learning están dispuestos a ignorar estas diferencias. Para ellos, los detalles de cómo funciona el cerebro son mayormente irrelevantes. Lo que más importa es que el deep learning puede resolver problemas que los humanos también resuelven y en muchos casos, superar hasta a los mejores humanos. Dado lo bien que funciona en muchas tareas, los defensores del deep learning creen que la IA basada en deep learning eventualmente superará el rendimiento humano en todas las tareas. Todo lo que necesitamos hacer es recolectar más datos y construir computadoras más grandes y entraremos en la “Era de la Inteligencia”.

Como científico que ha pasado décadas estudiando cómo los cerebros crean inteligencia, puedo decir con certeza que los cerebros funcionan con principios completamente diferentes a los del deep learning y estas diferencias importan. No podemos crear una IA verdaderamente inteligente utilizando deep learning. Para entender por qué, necesitamos mirar cómo funcionan los cerebros y los sistemas de IA por dentro, no solo lo que hacen por fuera.

Los fundamentos del aprendizaje

Todos los sistemas de aprendizaje comparten tres componentes básicos. Primero, están los datos con los que el sistema se entrena. Podemos preguntar, ¿de dónde provienen estos datos y cómo se alimentan al sistema? Segundo, el sistema aprende un modelo de los datos de entrenamiento. Los científicos de IA llaman a esto un modelo del mundo. Pero el modelo es una abstracción del mundo real basada en los datos de entrenamiento y limitada por los mismos. También podemos preguntar: ¿Cómo representa este modelo el conocimiento? Esto nos dice qué tipo de cosas el modelo puede y no puede aprender en principio. Y finalmente, el modelo se usa para generar resultados, para hacer algo.

Históricamente, los científicos de IA se enfocaban en el tercer componente, el resultado. El progreso en la IA se mide por hitos, como vencer a los mejores humanos en Ajedrez o GO, etiquetar imágenes o traducir texto de un idioma a otro. Sin embargo, si queremos entender lo que un sistema de IA puede hacer, no solo ahora sino en el futuro, o por qué la IA falla, o qué riesgos presenta, entonces necesitamos mirar los insumos y los modelos, no los resultados. Las cosas clave que debemos entender son cómo un sistema aprende y cómo el modelo representa el mundo. Cuando miramos estos dos componentes, podemos ver que los cerebros y el deep learning son completamente diferentes.

Cómo se aprende el deep learning

Comencemos con el deep learning, usando modelos de lenguaje grandes como ChatGPT como ejemplo. En este caso, los datos de entrenamiento son texto, mucho texto. Antes de ser alimentado al modelo, el texto se divide en partes llamadas tokens. Los tokens pueden ser palabras, partes de palabras, letras, números, puntuación, etc. Al entrenarse con enormes cantidades de texto, el sistema aprende qué tokens se esperan dados otros tokens circundantes.

El modelo que resulta es un modelo de lenguaje. El resultado de ChatGPT también es lenguaje (una cadena de tokens). Lenguaje por dentro y lenguaje fuera. Esto funciona bien si los temas de tu interés se escribieron en el texto con el que el sistema se entrenó. Pero hay dos grandes problemas con los sistemas de deep learning como este.

Algunos desafíos del deep learning

El primer problema es que el modelo de lenguaje no tiene forma de saber si sus datos de entrenamiento son verdaderos o falsos. No tiene forma de probar su conocimiento; de verificar o falsificar lo que ha aprendido. Esto se debe a que los modelos de deep learning, como ChatGPT, no tienen manera de interactuar con el mundo físico. Si yo escribiera que todos los perros tienen pelaje morado, tú podrías mirar a los perros y ver si eso es cierto o falso. ChatGPT no puede hacer eso; solo sabe lo que estaba en el texto con el que se entrenó. Por eso el deep learning tiende a generar creencias falsas. A diferencia de ti y de mí, no puede comprobar el mundo real para ver qué es cierto y qué es falso.

El segundo problema es que los modelos de deep learning no pueden descubrir nuevos conocimientos. El descubrimiento de nuevos conocimientos es la esencia de la inteligencia y el progreso humano. Podrías entrenar a ChatGPT con todos los artículos científicos jamás escritos y no podría decirte si hay vida en Marte. Para responder esa pregunta, tenemos que ir a Marte y mirar.

Incluso cuando los sistemas de deep learning hacen descubrimientos, están limitados por sus datos de entrenamiento. Por ejemplo, AlphaFold es un sistema de deep learning que predice la forma de las proteínas dada una secuencia molecular. Pero el sistema fue entrenado con datos curados de miles de experimentos publicados, experimentos diseñados y realizados por humanos. AlphaFold puede extraer respuestas que, en cierto sentido, ya están en los datos. La mayoría de los descubrimientos científicos no son así. Por lo general, no tenemos los datos necesarios. Algo o alguien tiene que ir y recolectarlos.

Cómo aprenden los cerebros humanos

Ahora miremos los cerebros. Los cerebros se entrenan con datos de los sensores. Nuestra piel, oídos y ojos detectan directamente el mundo físico. Cuando levantas un gato, ves y sientes su pelo y sientes la calidez de su piel, mientras escuchas cómo ronronea. En cambio, el conocimiento de ChatGPT sobre los gatos está limitado a lo que las personas ya investigaron sobre ellos y otros animales.

La IA puede responder preguntas sobre gatos porque fueron entrenados con textos escritos por humanos, pero no puede imaginar cómo se siente o suena un gato. No puede imaginar estas sensaciones porque no tiene sensores ni forma de interactuar con el mundo físico. ChatGPT solo conoce palabras. En cambio, el cerebro directamente percibe el mundo físico.

Nuestros cuerpos y sensores están en constante movimiento. Cuando caminamos, giramos la cabeza, tocamos objetos o movemos los ojos, la entrada al cerebro cambia. El modelo del cerebro predice lo que debe percibir después de cada movimiento. Estas predicciones son la forma en que el cerebro prueba su conocimiento del mundo.

Si nuestras predicciones son incorrectas, sabemos que nuestro modelo interno está defectuoso y necesita ser actualizado. Al moverse, el cerebro también puede explorar nuevos objetos y lugares, aprendiendo así nuevos conocimientos.

La increíble forma en que funciona el cerebro

El cerebro necesita dos tipos de entradas para aprender. Una proviene de los sensores, como una textura táctil, un sonido auditivo o un color visual. La otra entrada representa cómo se están moviendo los sensores. Internamente, el cerebro realiza un seguimiento de la ubicación de sus sensores en relación con las cosas del mundo.

El cerebro sabe dónde están las cosas, no solo qué son. El cerebro aprende modelos del mundo asociando lo que se percibe con el lugar donde se percibe. De esta manera, los modelos del cerebro representan la estructura física del mundo.

El output del cerebro también es movimiento. El cerebro utiliza el movimiento para probar la precisión de sus modelos, explorar y aprender nuevos conocimientos y manipular el mundo. Incluso cuando creamos lenguaje, lo hacemos a través de contracciones musculares.

El cerebro es un sistema sensorimotor. Los datos sensoriales y de movimiento son las entradas y el movimiento es la salida. Esta es la mayor y más importante diferencia entre los cerebros y el aprendizaje profundo.

Los cerebros tienen varias otras características importantes. Incluyen la capacidad de aprender de manera continua y utilizar muy poca energía, problemas que aquejan al aprendizaje profundo. Es importante señalar que entendemos cómo los cerebros hacen esto. Estas serán características de la IA basada en el cerebro.

Construyendo el futuro de la IA

¿Podemos construir sistemas de IA que funcionen con los mismos principios que el cerebro? Sí, mi equipo ha estado trabajando en un proyecto de código abierto en el que cualquiera puede contribuir al esfuerzo por crear una IA sensorimotora.

¿Cómo será el futuro de la IA? La IA sensoriomotora y la IA de aprendizaje profundo coexistirán. Cada una tiene su propio valor. Por ejemplo, nuestros cerebros no evolucionaron para el lenguaje. En términos evolutivos, el lenguaje es una adición reciente. A pesar de lo buenos que creemos que somos en el lenguaje, no deberíamos sorprendernos de que los sistemas diseñados específicamente para modelar el lenguaje puedan superar a los humanos, de la misma manera que las calculadoras nos superan en matemáticas.

Así que los sistemas de aprendizaje profundo seguirán siendo valiosos para tareas específicas. Pero el corazón de la IA, donde se producirá el progreso más emocionante, será la IA sensorimotora, no el aprendizaje profundo.

Las máquinas requerirán siempre de alguien más inteligente: los humanos

La mayoría de las cosas que queremos que las máquinas inteligentes hagan requieren interactuar con el mundo. El progreso científico requiere crear y usar herramientas. Construir colonias en Marte requiere sistemas de IA que hagan el trabajo de ingenieros y obreros en ambientes que no son adecuados para los humanos. Los asistentes personales basados en IA necesitan cocinar, limpiar y hacer diligencias. Podemos intentar aplicar el aprendizaje profundo para hacer estas tareas, pero el aprendizaje profundo no está diseñado para interactuar con el mundo.

Si queremos una inteligencia artificial que pueda interactuar con el mundo y hacer deep learning de él, probar directamente su conocimiento, aprender de manera continua y usar poca energía, entonces debemos aprender del cerebro y desarrollar una IA sensoriomotora.

Estoy emocionado por el futuro de la IA y cómo puede ayudar a los humanos a sobrevivir y crecer. Lo que me diferencia de algunos de mis colegas es que veo el aprendizaje profundo como una tecnología importante pero limitada. El éxito temprano del aprendizaje profundo ha engañado a muchas personas, haciéndoles creer que el aprendizaje profundo es todo lo que se necesita. Esto no es cierto.

Las máquinas verdaderamente inteligentes necesitan aprender modelos estructurados del mundo. Necesitan moverse e interactuar con el mundo para aprender, expandir el conocimiento y alcanzar objetivos. Afortunadamente, tenemos el cerebro como nuestra guía para lograrlo.

Author

  • Jeff Hawkings

    Jeff Hawkins es un científico cuyo interés de toda la vida en la neurociencia lo llevó a la creación de Numenta y su enfoque en la teoría neocortical. Su investigación se centra en cómo la corteza aprende modelos predictivos del mundo a través de la sensación y el movimiento. Actualmente, lidera el Proyecto Thousand Brains, cuyo objetivo es inaugurar una nueva era de inteligencia artificial basada en el cerebro que aborde las limitaciones del aprendizaje profundo. Anteriormente, cofundó dos empresas, Palm y Handspring, donde diseñó productos como el PalmPilot y el smartphone Treo. Jeff ha escrito dos libros: On Intelligence (2004, con Sandra Blakeslee) y A Thousand Brains: A New Theory of Intelligence (2021).

    View all posts

Author

  • Jeff Hawkings

    Jeff Hawkins es un científico cuyo interés de toda la vida en la neurociencia lo llevó a la creación de Numenta y su enfoque en la teoría neocortical. Su investigación se centra en cómo la corteza aprende modelos predictivos del mundo a través de la sensación y el movimiento. Actualmente, lidera el Proyecto Thousand Brains, cuyo objetivo es inaugurar una nueva era de inteligencia artificial basada en el cerebro que aborde las limitaciones del aprendizaje profundo. Anteriormente, cofundó dos empresas, Palm y Handspring, donde diseñó productos como el PalmPilot y el smartphone Treo. Jeff ha escrito dos libros: On Intelligence (2004, con Sandra Blakeslee) y A Thousand Brains: A New Theory of Intelligence (2021).

    View all posts

Sobre el autor

Jeff Hawkins es un científico cuyo interés de toda la vida en la neurociencia lo llevó a la creación de Numenta y su enfoque en la teoría neocortical. Su investigación se centra en cómo la corteza aprende modelos predictivos del mundo a través de la sensación y el movimiento. Actualmente, lidera el Proyecto Thousand Brains, cuyo objetivo es inaugurar una nueva era de inteligencia artificial basada en el cerebro que aborde las limitaciones del aprendizaje profundo. Anteriormente, cofundó dos empresas, Palm y Handspring, donde diseñó productos como el PalmPilot y el smartphone Treo. Jeff ha escrito dos libros: On Intelligence (2004, con Sandra Blakeslee) y A Thousand Brains: A New Theory of Intelligence (2021).

ADVERTISEMENT

ADVERTISEMENT