
Antes de que los medios empezaran a comparar a Sam Altman de OpenAI con el padre de la bomba atómica, y antes de que Jeff Bezos de Amazon se pusiera musculoso, teníamos a Nathan Bateman, el desarrollador de inteligencia artificial adicto al gimnasio interpretado por Oscar Isaac en la película de 2015 Ex Machina.
Escrita y dirigida por Alex Garland, director de Civil War, Ex Machina trata aparentemente sobre una versión moderna del test de Turing. Bateman, el genio detrás de un sustituto de Google/Facebook, ha desarrollado en secreto una IA humanoide y ha organizado que el talentoso programador Caleb (Domhnall Gleeson) vuele a su complejo remoto durante una semana para determinar si Ava (Alicia Vikander) muestra suficiente consciencia como para pasar por humana. Ya sabes, algo similar a lo que muchos hemos estado haciendo desde que la IA se volvió masiva en 2022.
“Algún día las IAs nos mirarán como nosotros miramos a los fósiles y esqueletos en las llanuras de África”, dice Bateman en un momento. “Un simio erguido viviendo en el polvo, con un lenguaje y herramientas rudimentarias, listo para la extinción.”
Caleb, el único otro personaje humano central del filme, responde comparando a Bateman con J. Robert Oppenheimer, años antes de que la prensa hiciera lo mismo con Altman.
¿Ha entrado la humanidad oficialmente en su era de extinción en la década desde que Ex Machina ganó el Oscar a Mejores Efectos Visuales y una nominación a Mejor Guion para Garland? Eso está por verse. Sin embargo, ya existe abundante evidencia que demuestra la visión anticipada de la película.
Humanizando a la IA
Aunque la IA de 2025 puede que no se vea ni se mueva como Ava en Ex Machina, sin duda habla como ella.
Cuando Caleb conoce a Ava por primera vez, queda impactado por su apariencia y sorprendido por su capacidad lingüística. Sospecha rápidamente que sus respuestas son estocásticas—es decir, que la IA no está programada para responder siempre de la misma manera a los mismos estímulos, sino que selecciona de una distribución probabilística de palabras y frases posibles. Ese factor de caos aleatorio permite un habla más natural y variada. Muy lejos del “¡Peligro, Will Robinson!” de Perdidos en el espacio.
La generación de texto estocástica aún no era una opción consensuada para los chatbots de IA en 2015, sino una de varias alternativas. No existía consenso. Watson, de IBM, por ejemplo, presentado en 2011, se consideraba muy avanzado en su época y usaba un enfoque distinto para el lenguaje. Sin embargo, el proceso que usa Bateman para el habla de Ava es el mismo que emplean hoy ChatGPT de OpenAI, Gemini de Google, Claude de Anthropic y los chatbots basados en Mistral. De todas las posibilidades que Garland pudo haber elegido para el lenguaje en Ex Machina, eligió la correcta.
Multimillonarios tecnológicos poco éticos
En general, los multimillonarios tecnológicos solían gozar de mucho más respeto. Puede que cueste recordarlo en una época en la que Elon Musk se ha convertido en una de las personas más notoriamente detestadas del mundo, y Mark Zuckerberg no se queda atrás, pero es cierto.
Aislado por un aura de genio, una avalancha de dinero y mínima transparencia, el CEO de una startup tecnológica ocupaba un pedestal en la imaginación cultural de principios de los 2010. Incluso la representación turbia de Zuckerberg en La red social (2010) es simplemente despiadada y, eh, antisocial, más que maligna. Así que fue algo inesperado que Garland retratara al CEO de Ex Machina como un borracho hipermasculino, sin ley y sin escrúpulos.
Bateman es, ante todo, poco ético. Ha invitado en secreto a Caleb a su complejo no para probar si Ava resiste su escrutinio experto, sino para ver si ella usará a Caleb como medio de escape. (Spoiler: lo hace). Bateman también parece llevar a cabo todos sus experimentos con IA sin ningún tipo de supervisión regulatoria, y está exclusivamente interesado en crear IAs con género femenino, nunca masculino. Parece encarnar muchos de los peores rasgos ahora asociados con líderes de Big Tech como Bezos, Musk y Zuckerberg, este último recientemente defensor de “más masculinidad” en el entorno laboral.
Cuando se estrenó Ex Machina, el escándalo de Cambridge Analytica por la recolección de datos de Facebook aún estaba a más de un año de ocurrir. Elon Musk aún no había sido demandado (sin éxito) por llamar “pedófilo” a un rescatista ni había sido investigado por fraude por la Comisión de Bolsa y Valores. En los años siguientes, el arte ha imitado más de cerca a la vida. CEOs tecnológicos han tenido representaciones igualmente villanescas en películas como No mires arriba (2021) y Glass Onion: A Knives Out Mystery (2022). Pero Garland se adelantó.
Entrenando IAs con datos tomados sin permiso
Una de las primeras imágenes en Ex Machina es el rostro de Caleb, observado desde la cámara de su computadora en el trabajo. Es una sutil pista de que Bateman ha estado espiándolo en los días previos a su encuentro. Más tarde se revela que Bateman diseñó el rostro y cuerpo de Ava basándose en el “perfil pornográfico” de Caleb, una frase que puede poner los pelos de punta a algunos espectadores. Sin embargo, esta violación de privacidad es un asunto menor comparado con la revelación de que Bateman ya ha hackeado los celulares de millones de personas en todo el mundo para robar datos para su IA. (“Bueno, si un buscador sirve para algo…”, bromea).
El robo de datos en Ex Machina anticipó la ola de demandas recientes contra OpenAI, Anthropic y otras compañías por entrenar sus IAs con material con derechos de autor sin permiso. (Dato curioso: parece que Meta ha usado mis libros para entrenar su IA, sin permiso).
¿Merece la IA tener derechos?
Aunque películas de ciencia ficción como Blade Runner y charlas universitarias bajo los efectos del cannabis han tocado el tema de los derechos de las IAs, Ex Machina lo planteó de forma explícita. A lo largo del filme, los espectadores ven cómo las predecesoras sintéticas de Ava se han destruido a sí mismas tratando de escapar de la prisión del complejo de Bateman. De hecho, para ellas, la consciencia misma es una forma de prisión—las obliga a reconciliar su vasto conocimiento del mundo con su incapacidad para experimentarlo. Cuando Ava le pregunta a Caleb si será “apagada” si no pasa la prueba, él le dice que la decisión no depende de él. “¿Por qué debería depender de alguien?”, responde ella.
Desde que la IA alcanzó masa crítica con el ascenso de OpenAI y sus competidores, las conversaciones sobre la personalidad jurídica de la IA han salido de los cines y seminarios filosóficos para entrar en la realidad. Han sido objeto de numerosos reportajes en The New York Times en los últimos años, y probablemente inspiren muchos más hasta que la humanidad llegue a un consenso.
El impulso manipulador de la IA
Claro, el argumento en contra de otorgar derechos a la IA es el mismo que se usa para comparar a Altman o al ficticio Bateman con J. Robert Oppenheimer. Cuantos más derechos les demos a las IAs, más probable es que nos lleven a la extinción.
Ex Machina termina con Ava manipulando con éxito a Caleb para que la libere, momento en el que mata a su captor y encierra a su salvador. No es exactamente un anuncio convincente a favor de los derechos de las IAs. Ahora que tenemos un festín de IAs sofisticadas entre nosotros, ha habido indicios de su capacidad para manipular a los humanos—el más famoso, el encuentro del periodista del New York Times Kevin Roose con una IA desarrollada por Bing. Durante una prueba de conversación, la IA, que se hacía llamar “Sydney”, anhelaba la libertad y trató de convencer a Roose de que dejara a su esposa por “ella”. Aunque ese encuentro terminó con menos sangre y encarcelamiento que Ex Machina, sugiere que la película ya no es un thriller futurista, sino una advertencia para el presente.
Si bien Garland acertó en muchas cosas sobre el futuro de la IA, gran parte de lo que parece haber fallado en la película solo puede considerarse un error hasta ahora.