Hace algunos años, Shannon Vallor se encontraba frente a Cloud Gate, la enorme escultura de mercurio en forma de gota, obra de Anish Kapoor, más conocida como el Frijol, en el Parque Millennium de Chicago. Al mirarse en su superficie reflejante, notó algo.
“Veía cómo reflejaba no solo las formas de las personas individuales, sino grandes multitudes; e incluso estructuras humanas más grandes, como el horizonte de Chicago”, recordó, “pero también notaba que estas eran distorsionadas, algunas amplias, otras reducidas o retorcidas”.
Para Vallor, profesora de filosofía en la Universidad de Edimburgo, esto le recordó al aprendizaje automático, “reflejando los patrones encontrados en nuestros datos, pero de formas que nunca son neutrales u ‘objetivas’”, dijo. La metáfora se convirtió en una parte popular de sus conferencias y con la llegada de los modelos de lenguaje grandes (y las muchas herramientas de IA que impulsan), su crítica a la IA cobró aún más fuerza.
Los “espejos” de la IA se ven y suenan mucho como nosotros porque reflejan las entradas y los datos con los que se entrenan, incluidos todos los sesgos y particularidades que eso implica. Los “espejos” de la IA se ven y suenan mucho como nosotros porque están reflejando sus entradas y los datos con los que se entrenan, con todos los sesgos y peculiaridades que eso implica. Y mientras que otras analogías para la IA podrían transmitir la sensación de una inteligencia viva (como el “loro estocástico” del conocido artículo de 2021), el “espejo” es más adecuado, dice Vallor en su crítica. La IA no es sensible, solo es una superficie plana e inerte, cautivándonos con sus ilusiones de profundidad propias de una casa del terror.
Una IA más responsable
La metáfora se convierte en el lente de Vallor en su reciente libro The AI Mirror, una crítica aguda y llena de ingenio que destruye muchas de las ilusiones que tenemos sobre las máquinas “inteligentes” y dirige algo de nuestra atención hacia nosotros mismos. En anécdotas sobre nuestros primeros encuentros con chatbots, escucha ecos de Narciso, el cazador de la mitología griega que se enamoró del hermoso rostro que vio al mirarse en una poza, pensando que era otra persona. Vallor explió que, como él, “nuestra propia humanidad corre el riesgo de ser sacrificada ante esta reflexión”.
Para ser claros, no es que Vallor haga una crítica a la IA porque está en contra. Tanto a título personal como codirectora de BRAID, una organización sin fines de lucro que aboga por la integración de la tecnología y las humanidades en el Reino Unido, asesoró a empresas de Silicon Valley sobre IA responsable. Y ve algo de valor en los “modelos de IA específicamente dirigidos, seguros, bien probados; así como moral y ambientalmente justificados” para abordar problemas difíciles de salud y medio ambiente. Pero, a medida que observa el ascenso de los algoritmos, desde las redes sociales hasta los compañeros de IA, admite que su propia relación con la tecnología últimamente se siente “más como estar en una relación que poco a poco se fue volviendo amarga. Solo que no tienes la opción de romper”.
¿La IA puede comprometer nuestra moral?
Para Vallor, una forma de navegar —y con suerte guiar— nuestras relaciones cada vez más inciertas con la tecnología digital es apelar a nuestras virtudes y valores, como la justicia y la sabiduría práctica. Ser virtuoso, dijo, no se trata de quiénes somos, sino de lo que hacemos, parte de una “lucha” por la autodeterminación a medida que experimentamos el mundo, en relación con los demás. Los sistemas de IA, por otro lado, pueden reflejar una imagen del comportamiento o los valores humanos, pero, como escribe en The AI Mirror, “no saben más sobre la experiencia vivida de pensar y sentir que nuestros espejos de dormitorio saben sobre nuestros dolores y angustias interiores”.
Al mismo tiempo, los algoritmos, entrenados con datos históricos, limitan silenciosamente nuestro futuro, con el mismo tipo de pensamiento que dejó al mundo “plagado de racismo, pobreza, desigualdad, discriminación, [y] catástrofe climática”. ¿Cómo vamos a enfrentar esos problemas emergentes que no tienen precedentes?, se preguntó. “Nuestros nuevos espejos digitales miran hacia atrás”.
A medida que dependemos más de las máquinas, optimizando ciertos parámetros como la eficiencia y las ganancias, Vallor teme que también estemos debilitando nuestros músculos morales, perdiendo de vista los valores que hacen que la vida valga la pena.
A medida que descubrimos lo que la IA puede hacer, también necesitaremos centrarnos en aprovechar rasgos exclusivamente humanos, como el razonamiento contextual y el juicio moral y en cultivar nuestras capacidades distintivamente humanas. Ya sabes, como contemplar una escultura gigante de un frijol y crear una metáfora poderosa para la IA. “No necesitamos ‘derrotar’ a la IA”, dijo la escritora. “Necesitamos no derrotarnos a nosotros mismos”.