Aunque la inteligencia artificial (IA) promete una revolución en la gobernanza, los negocios y la sociedad, también conlleva enormes riesgos, como la aceleración de la desinformación, los ciberataques sofisticados y el aumento del consumo energético. Otros riesgos, como la posibilidad de que máquinas superinteligentes tomen decisiones sin supervisión humana, están todavía un poco más lejos. Además, hay peligros que aún no se han identificado.
A pesar de los mensajes tranquilizadores del sector tecnológico, crece la preocupación por el impacto negativo de la rápida adopción de la IA en la sociedad, también en el sur global. El año pasado, el Instituto Igarapé (Brasil) y la Fundación New America convocaron un grupo de trabajo global, formado por expertos en IA de toda América, África y Asia, para debatir formas prácticas de mejorar la seguridad de la IA.
En 2024, este grupo de trabajo ha publicado un documento con una serie de estrategias para mitigar los riesgos y mejorar la resiliencia, así como para reducir las brechas de gobernanza y regulación de la IA entre el norte y el sur globales.
Menos empleos
Uno de los mayores riesgos destacados por el grupo de trabajo es la automatización masiva y la eliminación de puestos de trabajo. Se espera que el despliegue de la IA afecte a la mano de obra en sectores que van desde la agricultura, la industria y el comercio minorista hasta los ámbitos jurídico y médico y las consultorías de gestión.
Aunque inevitablemente se crearán nuevas formas de empleo, se calcula que el trabajo de al menos 800 millones de personas corre el riesgo de ser automatizado de aquí a 2030.
Una preocupación real es que los sectores poco cualificados de los países en desarrollo se vean desproporcionadamente afectados. La Organización Internacional del Trabajo estima que más del 56% de todos los empleos en los países de ingresos bajos y medios corren un “alto riesgo” de automatización. Sin las salvaguardias adecuadas, esto podría exacerbar la desigualdad económica y excluir a los trabajadores jóvenes y poco cualificados.
Exclusión digital
Otro riesgo asociado a la IA es la profundización de la exclusión digital y el aumento de la desigualdad. Es probable que la brecha entre los que tienen acceso a las tecnologías avanzadas y los que no aumente en los próximos años, lo que conducirá a una menor productividad, un menor crecimiento económico y una mayor desigualdad social y económica.
Esto es especialmente preocupante en los países de renta baja y media que ya se enfrentan a déficits de talento digital y servicios relacionados. Una de las principales razones es la relativa dificultad de acceso a la infraestructura digital y la escasa alfabetización digital de amplias zonas del sur global.
Otra amenaza importante es la intensificación de los prejuicios y la discriminación. Los sistemas de IA desarrollados en Estados Unidos, China y la Unión Europea pueden perpetuar y amplificar los prejuicios ya presentes en los datos utilizados para entrenar la IA. Esto puede dar lugar a resultados discriminatorios en ámbitos como la puntuación crediticia, la contratación de personal, las primas de seguros, la vigilancia policial y la justicia penal.
Los algoritmos siguen siendo en gran medida entrenados con conjuntos de datos proporcionados por los países más ricos. Como consecuencia, los trabajadores, estudiantes y empresarios de los países en desarrollo pueden verse injustamente excluidos de las oportunidades en el mercado laboral, los préstamos, las becas o los servicios sanitarios debido a algoritmos sesgados. Todo ello, a su vez, refuerza la discriminación estructural, incluidos los prejuicios raciales, de género y de clase.
Vigilancia y privacidad
La intensificación de la vigilancia y la violación de la privacidad también son motivo de preocupación. La integración de la IA en la vigilancia –desde ciudades inteligentes hasta la aplicación de la ley– puede vulnerar, intencionadamente o no, la privacidad, las libertades civiles y los derechos humanos. Esto es especialmente preocupante en países con instituciones democráticas más débiles, protecciones legales insuficientes y mecanismos de supervisión deficientes.
Una de las principales preocupaciones es que los regímenes autoritarios desplieguen sistemas basados en IA para vigilar a sus oponentes políticos, reprimir la disidencia y atacar a las comunidades marginadas por motivos étnicos, religiosos o ideológicos. Incluso en entornos democráticos, las plataformas de IA han contribuido al exceso de vigilancia policial, la elaboración de perfiles discriminatorios y las detenciones injustas.
Otro riesgo está relacionado con la excesiva dependencia de los actores del sur global de las tecnologías y los conocimientos extranjeros. Aunque en gran medida inevitable, la fuerte dependencia de las tecnologías e innovaciones de IA de Estados Unidos, China y Europa puede reducir los incentivos para que algunos países desarrollen sus propios sectores tecnológicos nacionales.
Estas dependencias podrían degradar su poder de negociación, dar lugar a costes más elevados para la tecnología y disminuir el control sobre las normas.
La erosión de la soberanía de los datos es una realidad, y la dependencia de proveedores extranjeros significa que los datos pueden ser más fácilmente accesibles, controlados, manipulados y explotados por actores externos. Esto, a su vez, puede aumentar vulnerabilidades como las violaciones de la privacidad y el robo de propiedad intelectual, además de reducir el control sobre infraestructuras tecnológicas críticas.
Las soluciones
Ante todos estos riesgos, ¿cuáles son las posibles soluciones para el sur global? Cada vez son más las voces que abogan por normas mundiales, cooperación internacional y programas específicos, como los propugnados en una resolución de la Asamblea General de la ONU de 2024 sobre inclusión de la IA y el recientemente acordado Pacto Digital, cuyo objetivo es superar las desigualdades digitales, de datos y de innovación.
El enviado tecnológico de la ONU y un órgano consultivo de alto nivel sobre IA han instado a gobiernos, empresas e investigadores a diseñar, desarrollar y desplegar tecnologías de IA de forma equitativa, inclusiva y sensible a los retos específicos a los que se enfrentan los países del sur global. Estos y otros grupos han propuesto una serie de estrategias para mitigar los riesgos.
1. Formación y capacitación
Frente a la automatización y la reducción de puestos de trabajo, se reconoce la necesidad urgente de invertir en educación y formación profesional. Los trabajadores actuales y futuros deben poseer las competencias adecuadas para el mercado laboral en evolución, ya sea el conocimiento del mundo digital y la ciencia de datos, o el desarrollo de habilidades interpersonales.
Esto requiere la puesta en marcha de centros de formación profesional y cursos en línea, recursos de reciclaje, servicios de recolocación y subsidios de desempleo progresivos, así como programas de renta básica universal.
Algunos ejemplos prometedores son la iniciativa AI for All de la India, los embajadores digitales de Ruanda y el programa Conecta de Brasil, que están ayudando a personas y empresas a hacer la transición a la economía digital.
Además, grupos no gubernamentales como Platzi, de América Latina, y M-Pesa Academy, de África, están formando a la mano de obra del futuro. Mientras tanto, países como Kenia, Namibia e India están probando la renta básica universal, con algunos resultados prometedores.
2. Expansión de infraestructuras y conexión
En cuanto a las desigualdades digitales, los agentes públicos y privados tendrán que realizar una inversión significativa en infraestructura digital. Esto incluye ampliar el acceso a internet y a la banda ancha a los 2 600 millones de personas del sur global que aún no están conectadas, así como apoyar la creación y gestión de centros tecnológicos, especialmente en zonas desatendidas.
También son esenciales las políticas que promuevan el acceso equitativo a los servicios digitales y los programas tecnológicos de bajo coste. Los socios internacionales y regionales, incluidos los bancos multilaterales de desarrollo y las empresas multinacionales, desempeñan un papel importante.
Un ejemplo positivo de cómo ampliar este tipo de actividad es el programa AI for Development (AI4D) de la Smart Africa Alliance, que está desarrollando marcos éticos de IA para la gobernanza, la agricultura y la salud.
3. Transparencia algorítmica y protección de la privacidad
Los prejuicios y la discriminación pueden reducirse estableciendo y aplicando directrices y normas éticas para el desarrollo y la aplicación de la IA. Como ha demostrado, entre otros, el grupo de trabajo global del Instituto Igarapé, los países y las empresas deben apoyar marcos normativos que exijan transparencia algorítmica y auditorías periódicas. Identificamos más de 640 estrategias de este tipo, aunque más de dos tercios se formularon en países de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), que pueden ofrecer ideas prácticas. Además, existen grandes oportunidades para exigir que los datos utilizados para entrenar los sistemas de IA sean más diversos y representativos.
Abordar de forma integral las violaciones de la privacidad y la vigilancia requiere la creación y aplicación de leyes sólidas de protección de datos y privacidad para proteger la información personal. La Unión Europea y países como Brasil, India, Kenia, Sudáfrica y Tanzania, entre otros, se están ocupando de estas cuestiones.
También es necesaria una normativa clara sobre el uso de la IA para la vigilancia con el fin de minimizar las prácticas invasivas, así como campañas de concienciación pública junto con la defensa por parte de la sociedad civil de unas protecciones más estrictas.
4. Apoyo a la investigación e innovación
Por último, para reducir la dependencia excesiva de los proveedores de tecnología extranjeros es necesaria una gran inversión no sólo en investigación y desarrollo locales de IA, sino también en la formulación de políticas de IA. Una de las prioridades es ampliar las subvenciones y los incentivos para las aceleradoras, las startups y las instituciones de investigación locales.
Las asociaciones y la colaboración internacionales también desempeñan un papel clave, al igual que los centros dedicados a formar y educar a la mano de obra. Socios internacionales como la Unión Internacional de Telecomunicaciones (UIT)), la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco), el Programa de las Naciones Unidas para el Desarrollo PNUD) y otros han ayudado a promover la acción tanto en el desarrollo de competencias técnicas como en la capacitación de legisladores y funcionarios públicos para promover políticas de IA seguras y responsables.
Aunque es necesario abordar cuestiones estructurales como la legislación antimonopolio, urge aumentar la inversión y la innovación en IA en el sur global. Los gigantes tecnológicos como Google, Intel y Microsoft. Organizaciones internacionales como UIT, Unesco, PNUD y otras también están ayudando a formar tanto a responsables como a trabajadores.
Necesitamos mucho más. La buena noticia es que la nueva Resolución de la ONU sobre IA Inclusiva, el Grupo de Alto Nivel sobre IA, el Pacto Digital y el Enviado de Tecnología de la ONU apuntan hacia un camino positivo.
Impulsar la gobernanza de la IA en el sur global
Para hacer frente a estos riesgos y ampliar la aplicación de soluciones, es esencial reducir la diferencia en la gobernanza de la IA entre el norte y el sur global. Esta diferencia se manifiesta no sólo en las capacidades tecnológicas y la infraestructura digital y energética subyacente, sino también en el acceso a los recursos, el talento e incluso la formulación de políticas.
Como mínimo, esto requiere aumentar la participación de responsables de la toma de decisiones y expertos del sur global en el desarrollo, la regulación e incluso la formulación de políticas de IA, incluso en los contextos del G20 y la OCDE. También es fundamental promover el desarrollo de capacidades y el intercambio de conocimientos a través de institutos y centros de investigación especializados en IA.
El grupo de trabajo global dirigido por el Instituto Igarapé hizo hincapié en que los países de renta baja y media necesitan desarrollar simultáneamente estructuras de gobernanza de la IA que estén en consonancia con los contextos sociales y económicos locales. A pesar de la legítima preocupación por la fragmentación normativa, es necesario equilibrar las extraordinarias oportunidades que ofrece la IA con los riesgos asociados a la automatización del empleo, las violaciones de la privacidad y las dependencias del exterior.
Las estrategias recientemente establecidas por la Unión Africana sobre IA y transformación digital ofrecen señales prometedoras en este sentido.
Todos estos ambiciosos compromisos requieren un esfuerzo concertado para atraer inversiones en programas de apoyo a la infraestructura de la IA, en asociación con los países en desarrollo. Esto requerirá importantes compromisos financieros y técnicos para construir nuevos centros de datos, aumentar la capacidad informática y ampliar la conectividad de banda ancha, así como ofrecer herramientas y plataformas de IA de código abierto.
El Pacto Mundial Digital se compromete a crear un fondo internacional bajo los auspicios de la ONU para estimular el uso de la IA para el desarrollo sostenible, así como a establecer un panel científico independiente y un diálogo mundial para anclar la IA en los derechos humanos. Este fondo tendrá que hacer apuestas ambiciosas (similares a las iniciativas lideradas por el sector privado, como el reciente fondo lanzado por IBM y Blackrock) si quiere ayudar a cerrar la brecha de gobernanza y competencias relacionadas con la IA.
Robert Muggah es cofundador del Instituto Igarapé y profesor en la Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio).
Este artículo se publicó originalmente en The Conversation.