
La inteligencia artificial podría transformar nuestro mundo para mejor o amenazar nuestra propia existencia. Los chatbots actuales son solo el comienzo. Podríamos estar encaminándonos hacia un futuro en el que la superinteligencia artificial desafíe el dominio humano. Para mantener el control del progreso ante una explosión de inteligencia, necesitamos establecer estándares y precauciones claras para el desarrollo de la IA.
A continuación, el autor y documentalista James Barrat comparte cinco ideas clave de su nuevo libro, La Explosión de la Inteligencia: Cuando la IA supera a los humanos en todo.
1. El auge de la IA generativa es impresionante, pero no está exento de problemas
Las herramientas de IA generativa, como ChatGPT y Dall-E, han revolucionado el mundo, demostrando su capacidad para escribir, dibujar e incluso componer música de formas que parecen casi humanas. Al ser “generativa”, significa que generan o crean cosas. Sin embargo, estas capacidades conllevan importantes inconvenientes. Estos sistemas pueden crear fácilmente noticias falsas, documentos falsos o fotos y videos deepfake que parecen y suenan auténticos. Ni siquiera los expertos en IA que crean estos modelos comprenden del todo cómo obtienen sus respuestas. La IA generativa es un sistema de caja negra, lo que significa que se pueden ver los datos con los que se entrena el modelo y las palabras o imágenes que emite, pero ni siquiera los diseñadores pueden explicar lo que sucede en su interior.
Stuart Russell, coautor de Inteligencia Artificial: Un Enfoque Moderno, afirmó lo siguiente sobre la inteligencia artificial generativa: “No tenemos ni la menor idea de cómo funciona, y la estamos lanzando a cientos de millones de personas. Le damos tarjetas de crédito, cuentas bancarias, cuentas en redes sociales. Hacemos todo lo posible para asegurarnos de que pueda dominar el mundo”.
La inteligencia artificial generativa alucina, lo que significa que los modelos a veces generan información que suena creíble, pero es errónea o sin sentido. Esto los convierte en un riesgo para tareas importantes. Al preguntarle sobre un artículo académico específico, una IA generativa podría responder con seguridad: “El estudio de 2019 de la doctora Leah Wolfe, de la Universidad de Stanford, reveló que 73% de las personas que consumen chocolate a diario han mejorado su memoria, según se publicó en el Journal of Cognitive Enhancement, volumen 12, número 4″. Esto suena completamente plausible y fiable, pero muchos detalles son inventados: no existe ninguna doctora Leah Wolfe en Stanford, no existe un estudio similar de 2019 y la estadística del 73% es ficticia.
“La IA generativa alucina, lo que significa que los modelos a veces emiten información que parece creíble, pero que es errónea o sin sentido”.
Las alucinaciones son particularmente problemáticas porque se presentan con tanta seguridad y especificidad que parecen legítimas. Los usuarios podrían citar esta investigación inexistente o tomar decisiones basadas en información completamente falsa.
Además, a medida que los modelos de IA generativa crecen, empiezan a adquirir habilidades sorprendentes, como traducir idiomas y escribir código, aunque nadie los haya programado para ello. Estos resultados impredecibles se denominan propiedades emergentes. Insinúan desafíos aún mayores a medida que la IA continúa avanzando y creciendo.
2. El impulso hacia la inteligencia artificial general (AGI)
El próximo gran objetivo en IA es la inteligencia artificial general, o AGI, por sus siglas en inglés. Esto significa crear una IA que pueda realizar prácticamente cualquier tarea que un humano pueda realizar, en cualquier campo. Las empresas tecnológicas y los gobiernos se apresuran a desarrollar la AGI porque el potencial de beneficios es enorme. La IA podría automatizar todo tipo de trabajo del conocimiento, haciéndonos mucho más productivos e innovadores. Quien lo consiga primero podría dominar las industrias globales y establecer las reglas para todos los demás.
Algunos creen que la AGI podría ayudarnos a abordar problemas masivos, como el cambio climático, las enfermedades y la pobreza. También se considera un punto de inflexión para la seguridad nacional. Sin embargo, la imprevisibilidad que ya observamos solo se intensificará a medida que nos acercamos a la AGI, lo que aumenta las expectativas.
3. De la AGI a algo mucho más inteligente
Si alguna vez alcanzamos la AGI, la situación podría escalar rápidamente. Aquí es donde entra en juego el concepto de “explosión de inteligencia”. La idea fue propuesta por primera vez por I. J. Good. Good fue un brillante matemático y descifrador de códigos británico que trabajó junto a Alan Turing en Bletchley Park durante la Segunda Guerra Mundial. Juntos, fueron cruciales para descifrar los códigos alemanes y sentar las bases de la informática moderna.
“Una explosión de inteligencia traería consigo increíbles ventajas”.
A partir de esta experiencia, Good se dio cuenta de que si construíamos una máquina tan inteligente como un humano, pronto podría volverse aún más inteligente. Una vez que comenzara a mejorarse a sí misma, podría quedar atrapada en una especie de bucle de retroalimentación, creando rápidamente versiones cada vez más inteligentes, mucho más allá de lo que los humanos podrían seguir. Este proceso descontrolado podría conducir a la superinteligencia artificial, también conocida como ISA.
Una explosión de inteligencia traería consigo ventajas increíbles. La IA superinteligente podría resolver problemas que nunca hemos podido resolver, como curar enfermedades, revertir el envejecimiento o mitigar el cambio climático. Podría impulsar la ciencia y la tecnología a la velocidad de la luz, automatizar todo tipo de trabajo y ayudarnos a tomar decisiones más inteligentes al analizar la información de maneras que las personas simplemente no pueden.
4. Los peligros de una explosión de inteligencia
¿Es peligrosa la IA superinteligente? ¡Claro que sí! En una entrevista, el gran autor de ciencia ficción Arthur C. Clark me dijo: “Los humanos dirigimos el futuro no porque seamos las criaturas más rápidas o fuertes, sino porque somos las más inteligentes. Si compartimos el planeta con algo más inteligente que nosotros, ese algo dirigirá el futuro”.
Las mismas cualidades que podrían hacer que la IA superinteligente sea tan útil también la hacen peligrosa. Si sus objetivos no están perfectamente alineados con lo que es bueno para los humanos (un problema llamado alineación), podría terminar haciendo cosas catastróficas para nosotros. Por ejemplo, una IA superinteligente podría agotar todos los recursos del planeta para completar su misión, sin dejar nada para los humanos. Nick Bostrom, filósofo sueco de la Universidad de Oxford, creó un experimento mental llamado “el maximizador de clips”. Si se le pidiera a una IA superinteligente que fabricara clips, sin instrucciones muy precisas, convertiría toda la materia del universo en clips, incluyéndonos a ti y a mí.
Quien controle este tipo de IA también podría alcanzar un poder sin precedentes sobre el resto del mundo. Además, la velocidad e imprevisibilidad de una explosión de inteligencia podría sumir a las economías y sociedades globales en un caos absoluto antes de que tengamos tiempo de reaccionar.
5. Cómo la inteligencia artificial podría dominar a la humanidad
Estos peligros pueden manifestarse de maneras muy reales. Una superinteligencia desalineada podría perseguir un objetivo mal formulado, causando un desastre. Supongamos que le pidieras a la IA que eliminara el cáncer; podría hacerlo eliminando personas. El sentido común es algo que la IA nunca ha demostrado.
Las armas controladas por IA podrían intensificar los conflictos a una velocidad superior a la que la intervención humana puede alcanzar, haciendo que la guerra sea más probable y mortal. En mayo de 2010, se produjo un desplome repentino en la bolsa, provocado por algoritmos de negociación de alta frecuencia. Las acciones se compraron y vendieron a un ritmo que los humanos no podían seguir, lo que costó a los inversionistas decenas de millones de dólares.
“Una superinteligencia desalineada podría perseguir un objetivo mal expresado y causar un desastre”.
La IA avanzada podría apoderarse de infraestructuras esenciales, como las redes eléctricas o los sistemas financieros, haciéndonos totalmente dependientes y vulnerables.
A medida que la IA se vuelve más compleja, podría desarrollar motivaciones nuevas y extrañas que sus creadores nunca imaginaron, y estas podrían ser peligrosas.
Actores maliciosos, como regímenes autoritarios o grupos extremistas, podrían usar la IA para la vigilancia masiva, la propaganda, los ciberataques o, peor aún, dotarse de nuevas herramientas sin precedentes para controlar o dañar a la población. Actualmente, estamos viendo cómo los sistemas de vigilancia se transforman en sistemas de armas mejorados en Gaza. En el oeste de China, los sistemas de vigilancia rastrean a decenas de millones de personas en la Región Autónoma Uigur de Xinjiang. Los sistemas de vigilancia mejorados con IA rastrean quién cruza la frontera de Estados Unidos con México.
La impredecible y a veces desconcertante IA actual es solo un anticipo de los riesgos y beneficios mucho mayores que podrían derivar de la IAG y la superinteligencia. Mientras nos apresuramos a crear máquinas más inteligentes, debemos recordar que estos sistemas podrían traer tanto beneficios increíbles como peligros existenciales. Si queremos mantener el control, necesitamos avanzar con una sólida supervisión, regulaciones y un compromiso con la transparencia.
Este artículo apareció originalmente en la revista Next Big Idea Club y se reproduce con autorización.