ADVERTISEMENT

| Tech

5 hechos oscuros que recordar frente al entusiasmo por la inteligencia artificial

La sociedad aún puede resistir el entusiasmo desmedido de la inteligencia artificial y evitar que las grandes tecnológicas comprometan nuestro futuro.

5 hechos oscuros que recordar frente al entusiasmo por la inteligencia artificial [Foto: Freepik]

La gran estafa de la IA es una exploración del entusiasmo publicitario que rodea a la inteligencia artificial, a quién beneficia realmente y el daño que se está causando bajo ese paraguas. La sociedad aún tiene opciones para resistir el entusiasmo exagerado por la IA, por lo que todavía hay esperanza de que podamos oponernos colectivamente y evitar que las grandes empresas tecnológicas hipotequen el futuro de la humanidad.

A continuación, las coautoras Emily Bender y Alex Hanna comparten cinco ideas clave de su nuevo libro, La gran estafa de la IA: cómo combatir el entusiasmo de la Big Tech y crear el futuro que queremos. Escucha la versión en audio —leída por Emily y Alex— en la app de Next Big Idea.

1. La tecnología que impulsa la actual ola de entusiasmo por la inteligencia artificial se basa en un truco

Los chatbots como ChatGPT son una tecnología impresionante, pero quizá no de la forma en que te imaginas. No pueden realizar la gama de funciones que supuestamente cumplen, sino que están diseñados para impresionarnos. La clave de su truco reside en cómo las personas utilizan el lenguaje. Podrías pensar que se trata simplemente de decodificar lo que dicen las palabras, pero el proceso es mucho más complejo y social.

Interpretamos el lenguaje basándonos en todo lo que sabemos (o suponemos) sobre la persona que pronunció las palabras y en cualquier punto en común que tengamos con ella. Luego, inferimos lo que intentaban transmitir. Lo hacemos de forma instintiva y reflexiva. Así, cuando nos encontramos con un texto sintético como el que surge de ChatGPT y similares, lo interpretamos imaginando una mente detrás del texto, aunque no la haya.

En otras palabras, las habilidades lingüísticas y sociales que envolvemos en los resultados de la inteligencia artificial son lo que facilita que los proveedores de chatbots nos engañen y nos hagan percibirlos como entidades racionales.

2. La IA no te quitará el trabajo, pero lo empeorará mucho

Gran parte del propósito de la tecnología de IA consiste en eliminar a los humanos de la ecuación laboral. La historia de la huelga del Sindicato de Escritores de Estados Unidos (WGA) es ilustrativa en este sentido. En 2023, el Sindicato de Escritores de Estados Unidos Este y Oeste (o WGA) —el sindicato que representa a los guionistas de Hollywood— se declaró en huelga por varias razones, entre ellas la exigencia de un aumento salarial para los guionistas de los servicios de streaming.

    También querían asegurarse de no verse reducidos a ser meros cuidadores de chatbots encargados de escribir guiones basados ​​en ideas descabelladas de productores de cine y televisión. John Lopez, miembro del grupo de trabajo de IA del WGA, señaló que a los escritores se les podría pagar la tarifa de reescritura por trabajar con contenido generado por IA, que es mucho menor que la tarifa por un guion original. Hemos visto cómo la amenaza de los generadores de imágenes y texto reduce drásticamente las oportunidades laborales para diseñadores gráficos, artistas de videojuegos y periodistas.

    Esto no se debe a que estas herramientas puedan realizar adecuadamente las tareas de estos profesionales, sino a que funcionan lo suficientemente bien como para que las carreras se acorten y los trabajadores sean recontratados por una fracción de lo que cobraban antes, solo para que puedan corregir los resultados deficientes de la inteligencia artificial.

    Además, los sistemas que se llaman “IA” a menudo son una fachada que oculta la estrategia corporativa, ya probada, de externalizar la mano de obra a personas del Mundo Mayoritario, también llamado el Sur Global. Muchos de estos trabajadores moderan contenido en línea, prueban chatbots para detectar resultados tóxicos e incluso conducen vehículos a distancia que se anuncian como totalmente automatizados.

    Afortunadamente, los trabajadores han podido contrarrestarlo, tanto mediante acciones sindicales preocupadas, sabotaje industrial (especialmente mediante herramientas creativas para artistas, como Nightshade y Glaze, que impiden que su trabajo se utilice para entrenar modelos de generación de imágenes) como mediante educación política.

    3. El propósito de la estafa de la IA es desconectar a las personas de los servicios sociales

    Dado que usamos el lenguaje en casi todas las esferas de actividad, y que el texto sintético que se extrae de las máquinas puede ser entrenado para imitar el lenguaje, puede parecer que estamos a punto de tener tecnología que puede proporcionar diagnósticos médicos, tutoría personalizada, toma de decisiones acertada en la asignación de servicios gubernamentales, representación legal y más, todo por solo el costo de la electricidad (más lo que las empresas que crean los chatbots quieran cobrar). Pero en todos estos casos, no son las palabras lo que importa, sino el pensamiento real que las sustenta y las relaciones que nos ayudan a construir y mantener.

      Los sistemas de IA solo son buenos para quienes buscan desviar fondos de los servicios sociales y justificar medidas de austeridad. Mientras tanto, quienes ostentan el poder se asegurarán de obtener servicios de personas reales, mientras imponen imitaciones de baja calidad a los demás. El director de IA para la Salud de Google, Greg Corrado, afirmó que no querría que el sistema Med-PaLM de Google formara parte del proceso de atención médica de su familia.

      Eso no le impidió presumir de cómo supuestamente había aprobado un examen de licencia médica. No fue así. Pero, más concretamente, diseñar sistemas para aprobar exámenes de opción múltiple sobre situaciones médicas no es una forma eficaz de desarrollar tecnología médica útil. En estos ámbitos, la propaganda de la IA se materializa en afirmaciones engañosas de soluciones tecnológicas a problemas sociales, basadas, en el mejor de los casos, en evaluaciones falsas e infundadas de los sistemas que se venden.

      4. La IA no nos matará a todos, pero el cambio climático sí podría

      Hubo una época en Silicon Valley y Washington D.C. en la que se planteó una pregunta peculiar, pero seria, a quienes trabajaban en tecnología o políticas tecnológicas: “¿Cuál es su p(doom)?”. P(doom) se refiere a la probabilidad de catástrofe, o la probabilidad de que la IA, de alguna manera, acabe con toda la humanidad. Este catastrofismo se basa en el desarrollo de la inteligencia artificial general (o AGI).

      La AGI está mal definida, pero la idea básica es un sistema capaz de realizar diversas tareas tan bien como los humanos o incluso mejor. Desafortunadamente, este catastrofismo tiene una gran aceptación entre algunos tecnólogos y legisladores, y se basa en un conjunto de ideologías indecorosas, como el altruismo eficaz, el largoplacismo y el racionalismo. Estas ideologías llevan la filosofía moral del utilitarismo al extremo, sugiriendo que debemos descartar el daño en el presente para salvar a los miles de millones de billones de humanos que vivirán en un futuro indefinido. Estas ideologías son eugenistas en sus orígenes e implicaciones.

      Mientras tanto, es probable que no alcancemos el objetivo del Acuerdo de París de limitar el aumento de la temperatura media global muy por debajo de los 2°C con respecto a los niveles preindustriales, y la IA está agravando este problema. Los centros de datos que albergan estas herramientas generan enormes cantidades de carbono en exceso, los semiconductores utilizados para sus componentes filtran sustancias químicas al suelo de forma permanente, y se prevé que los generadores de emergencia causen más enfermedades respiratorias en las zonas más pobres de Estados Unidos y otros lugares. Los robots no solo no van a dominar el mundo, sino que su producción agravará considerablemente la crisis climática.

      5. Nada de esto es inevitable

      Quienes venden sistemas de IA y el entusiasmo publicitario que los rodea quieren que renunciemos voluntariamente a nuestra decisión en estos asuntos. Nos dicen que la IA (incluso la AGI) es inevitable, o al menos que sistemas como ChatGPT “llegaron para quedarse”. Pero nada de esto es inevitable.

        Tenemos capacidad de acción, tanto colectiva como individual. Colectivamente, podemos impulsar regulaciones que impidan el uso de la tecnología de IA en nuestra contra y contratos laborales que nos permitan controlar nuestro trabajo. A nivel individual, podemos negarnos a usar sistemas de IA. Podemos ser consumidores críticos de la automatización, asegurándonos de comprender qué se está automatizando, cómo se evaluó y por qué.

        También podemos ser consumidores críticos del periodismo sobre tecnología, buscando y apoyando trabajos que exijan responsabilidades a quienes tienen poder. Y, por último, podemos y debemos participar en la ridiculización como práctica, es decir, divertirnos señalando todas las maneras en que las máquinas de extrusión de medios sintéticos son mal hechas y de mal gusto.

        Emily Bender es profesora de Lingüística en la Universidad de Washington, donde también es directora del programa de Maestría en Ciencias de la Lingüística Computacional, profesora afiliada en la Escuela de Ciencias de la Computación e Ingeniería, y profesora afiliada en la Escuela de Información.

        Alex Hanna es director de investigación en el Instituto de Investigación de IA Distribuida y profesor en la Escuela de Información de la Universidad de California en Berkeley. Ha aparecido en artículos para el Washington Post, el Financial Times, The Atlantic y Time.

        Author

        Author

        Sobre el autor

        ADVERTISEMENT

        ADVERTISEMENT