ADVERTISEMENT

| Tech

La próxima ola de IA ya está aquí: los agentes autónomos de IA son asombrosos y aterradores

Un director de datos explica por qué es necesario prestar atención al auge de los agentes de IA autónomos.

La próxima ola de IA ya está aquí: los agentes autónomos de IA son asombrosos y aterradores [Foto: Freerange]

La incesante expectación en torno a la IA dificulta separar la señal del ruido. Por eso es comprensible que hayas dejado de prestar atención a las recientes conversaciones sobre los agentes de IA autónomos. Un consejo: no lo hagas. La importancia de la IA autónoma puede, en realidad, superar el revuelo.

Un agente de IA autónomo puede interactuar con el entorno, tomar decisiones, actuar y aprender del proceso. Esto representa un cambio radical en el uso de la IA y, en consecuencia, presenta las oportunidades correspondientes (y los riesgos).

La P de GPT

Hasta la fecha, las herramientas de IA generativa, en gran medida sujetas a la supervisión humana, se han diseñado para funcionar mediante un entrenamiento previo (la P de GPT) en grandes cantidades de datos, como los grandes modelos de lenguaje (LLM) u otras fuentes de datos definidas, y luego proporcionar respuestas a las entradas o indicaciones (una pregunta o instrucción) proporcionadas por los usuarios. Esto ha demostrado ser una forma impresionante de generar respuestas similares a las humanas a las consultas o indicaciones, como un bebé que imita sonidos o palabras sin saber realmente lo que está diciendo. Es un poco adorable, pero es poco probable que evoque los Principios de Newton o una sinfonía de Beethoven. Entonces, ¿estas herramientas generativas realmente funcionan como seres creativos e independientes? Es dudoso, pero eso puede estar cambiando drásticamente.

Un nuevo enfoque permite que la IA interactúe directamente y de manera más autónoma con los datos y reaccione de una manera dinámica, mucho más parecida a lo que hacen los humanos. Esta tecnología se basa en agentes de IA autónomos, que Bill Gates cree que van a revolucionar la industria del software, provocando la mayor revolución en la informática desde que pasamos de escribir comandos a tocar íconos. Y eso puede ser un eufemismo.

Agentes de IA

Los agentes de IA están diseñados para tomar decisiones sin intervención humana para realizar tareas predefinidas (por ahora). Pueden acceder al mundo exterior, encontrar datos que no habían encontrado previamente, analizarlos y luego actuar, mucho más como la interacción humana con el entorno y menos como depender del universo de datos fijos de un programa de ajedrez o un chatbot y un LLM que no puede ir más allá de su conocimiento preentrenado. Suena genial. ¿Qué podría salir mal?

Este es un gran paso adelante, ya que reemplaza un enfoque estadístico inteligente para replicar la expresión humana con algo capaz de captar estímulos externos previamente desconocidos, procesarlos y tomar medidas sin tener que ser entrenado previamente o reentrenado. Estamos eliminando nuestro papel de intermediario que crea y gobierna el universo conceptual y de toma de decisiones de la IA.

Ese es tanto el punto como el problema. Es justo decir que el bebé de la IA no solo está en camino de dar unos pocos pasos; podría estar acelerando por la autopista en su nuevo auto, con música a todo volumen, bebiendo una botella de tequila.

La ventaja es clara: menor necesidad de capacitación y supervisión específicas. La escalabilidad solo está limitada por los recursos informáticos. Puede eliminar al intermediario humano y enviar agentes para que completen grandes cantidades de tareas por su cuenta. Después de todo, son agentes, tienen agencia: la capacidad de tomar decisiones y elecciones. Y errores.

¿Qué podría salir mal?

Como software en lugar de un actor humano, los errores del agente de IA pueden combinarse, replicarse y reproducirse instantánea y casi infinitamente. También es un objetivo para los piratas informáticos. Hay escenarios apocalípticos obvios, como un agente de IA deshonesto que desencadena indebidamente una ola masiva de transacciones de valores o lanza involuntariamente una represalia militar. Cuando se trata de decisiones con consecuencias potencialmente catastróficas, la supervisión humana no es perfecta de ninguna manera, pero la mayoría de nosotros nos sentimos al menos un mínimo de comodidad al saber que hay una mano humana experta flotando sobre el botón de inicio.

Hay efectos menos dramáticos pero aún de gran impacto en la esfera legal y de cumplimiento que plantean un riesgo comercial significativo. Cada vez más empresas utilizan herramientas impulsadas por IA en todo el ciclo de vida del empleado, desde la selección de candidatos hasta las entrevistas y la contratación y la continuidad hasta la evaluación del desempeño (aumentos, promociones y despidos). Estas herramientas están implementando cada vez más agentes de IA.

Los proveedores a menudo promocionan a los agentes de IA como apoyo y mejora de la calidad de las decisiones críticas de Recursos Humanos. Pero los errores sutiles en el diseño o la implementación del sistema podrían conducir a resultados injustos. Hay un nombre para este fenómeno: sesgo algorítmico. Al mismo tiempo, los estados están adoptando leyes que penalizan tanto a los desarrolladores como a los usuarios de dichas herramientas si su uso da como resultado un trato injusto a los empleados. Y, naturalmente, es probable que surjan litigios.

Negocio arriesgado

Es innegable que los agentes de IA presentan una oportunidad significativa para aumentar la productividad al automatizar las tareas rutinarias y liberar a las personas para una mayor creatividad y resolución de problemas. Pero los riesgos son igualmente innegables.

Si bien deshacerse de la supervisión y la vigilancia puede ser una necesidad con los niños en cierto punto, la metáfora solo llega hasta cierto punto cuando se trata de la emancipación de la IA a través de agentes autónomos. Por ahora, mientras retiramos alegremente las ruedas de entrenamiento, debemos ser conscientes de equilibrar nuestro comprensible entusiasmo con una razonable precaución para evitar accidentes catastróficos.

Author

Author

Sobre el autor

Tom Barnett es socio y director de datos en Jackson Lewis.

ADVERTISEMENT

ADVERTISEMENT