
Los avances tecnológicos más revolucionarios no siempre acaparan los titulares más importantes. Dos desarrollos emergentes de IA quizá no se viralicen en TikTok ni en YouTube, pero representan un punto de inflexión que podría acelerar radicalmente el desarrollo de la inteligencia artificial general (AGI, por sus siglas en inglés). Es decir, una IA que puede funcionar y aprender como nosotros.
Retomando nuestros sentidos: WildFusion
Como humanos, dependemos de todo tipo de estímulos para navegar por el mundo, incluyendo nuestros sentidos: vista, oído, tacto, gusto y olfato. Hasta ahora, los dispositivos de IA se basaban únicamente en un único sentido: la percepción visual. Una nueva investigación de la Universidad de Duke va más allá de la percepción visual. Se llama WildFusion y combina la visión con el tacto y la vibración.
El robot de cuatro patas utilizado por el equipo de investigación incluye micrófonos y sensores táctiles, además de las cámaras estándar que suelen encontrarse en los robots de última generación. El robot WildFusion puede usar el sonido para evaluar la calidad de una superficie (hojas secas, arena mojada), así como la presión y la resistencia para calibrar su equilibrio y estabilidad. Todos estos datos se recopilan y combinan o fusionan en una única representación de datos que mejora con el tiempo y la experiencia. El equipo de investigación planea mejorar las capacidades del robot permitiéndole medir factores como el calor y la humedad.
A medida que los tipos de datos utilizados para interactuar con el entorno se enriquecen y se integran, la IA se acerca cada vez más a la verdadera AGI.
Aprendiendo a aprender
El segundo avance tecnológico de IA poco conocido proviene de investigadores de las universidades de Surrey y Hamburgo. Aunque aún se encuentra en las primeras etapas de desarrollo, este avance permite a los robots que interactúan socialmente con humanos (robots sociales) entrenarse con mínima intervención humana. Esto se logra replicando lo que los humanos enfocarían visualmente en situaciones sociales complejas.
Por ejemplo, con el tiempo, como humanos, aprendemos a mirar la cara de una persona cuando le hablamos o a mirar lo que señala en lugar de a sus pies o al vacío. Pero los robots no lo harán sin un entrenamiento específico. Hasta ahora, el entrenamiento para perfeccionar su comportamiento dependía principalmente de la monitorización y supervisión humanas constantes.
Este nuevo enfoque innovador utiliza simulaciones robóticas para rastrear, monitorizar y, lo que es más importante, mejorar la calidad de las interacciones de los robots con una mínima intervención humana. Los robots aprenden habilidades sociales sin supervisión humana constante. Esto marca un importante avance en el avance general de la robótica social y podría ser un gran acelerador de la IA.
La IA autodidacta podría generar avances a un ritmo exponencial, una perspectiva que algunos consideramos emocionante, otros escalofriante.
Señal de IA sobre ruido
Por asombrosos que sean, los robots humanoides danzantes y los perros mecánicos pueden caracterizarse como IA limitada: IA diseñada únicamente para una tarea o propósito específico. Las hazañas de estas herramientas diseñadas específicamente son impresionantes. Pero estos dos nuevos desarrollos impulsan la forma en que la IA experimenta el mundo y cómo aprende de esas experiencias. Cambiarán drásticamente la forma en que la tecnología existe (y coexiste con nosotros) en el mundo.
En conjunto, estos avances y el trabajo de otros investigadores y emprendedores que siguen caminos similares están redefiniendo la trayectoria y el cronograma para lograr la AGI. Esto podría marcar el punto de inflexión que transforme la lenta marcha hacia la AGI en una carrera a toda velocidad.