La inteligencia artificial permeó el entorno empresarial de maneras que hace solo unos años eran inimaginables. Con este avance surgen preguntas complejas sobre cómo gestionar sus riesgos y beneficios. ¿Cómo garantizamos que las empresas la usen de manera ética y segura, sin frenar la innovación? La respuesta reside en la creación de normativas que protejan a las personas y, al mismo tiempo, impulsen el desarrollo tecnológico.
Entender y aplicar estas reglas es una tarea desafiante, pero necesaria, ya que atraviesa desde la seguridad, la privacidad, derechos fundamentales, y hasta el acceso equitativo a recursos. Por eso, su reglamentación requiere un enfoque amplio y, sobre todo, colaborativo.
El ejemplo europeo
La Ley de Inteligencia Artificial de la Unión Europea, que entró en vigor en agosto de 2024, es un referente clave en este camino. Es un marco que clasifica los sistemas de IA en función del riesgo: desde usos prohibidos por representar una amenaza para los derechos humanos, hasta aquellos de bajo riesgo que solo necesitan cumplir con principios básicos de transparencia. Esta categorización es muy importante, ya que permite adaptar las regulaciones a la naturaleza y las posibles consecuencias del uso de esta tecnología.
Por ejemplo, la IA que impacta directamente la seguridad de las personas, como la cirugía asistida por robots o el software de contratación laboral, se clasifica como de “alto riesgo” y está sujeta a una estricta supervisión. En cambio, aplicaciones de bajo riesgo, como videojuegos o filtros de spam, solo deben cumplir con principios de transparencia.
Si bien la UE está liderando en el tema, otros países y empresas han empezado a adoptar prácticas y guías basadas en estas políticas pioneras. Uno de los aspectos más destacables del enfoque europeo es que mantiene el desarrollo tecnológico al tiempo que establece límites claros en áreas de alto riesgo, como la seguridad en infraestructuras críticas, el empleo y la calificación crediticia.
Un enfoque integral dentro de las empresas
Como abogada de una empresa de telecomunicaciones, tengo la responsabilidad de entender y mitigar estas implicaciones desde un punto de vista legal, pero el éxito en este esfuerzo depende de la cooperación interdisciplinaria. Un enfoque integral para el uso de la IA dentro de las empresas se basa en el diálogo y la evaluación de su impacto desde distintos ángulos.
Nosotros, por ejemplo, creamos el Comité GAIA (Governance Artificial Intelligence AT&T), un grupo multidisciplinario que revisa y evalúa el uso de la IA dentro de la empresa e incluye equipos legales, de protección de datos, ciberseguridad, ciencia de datos, experiencia del cliente y más. La variedad de perspectivas fortalece la política, también ayuda a identificar riesgos que podrían pasarse por alto si solo un área estuviera involucrada.
En México, la conversación está avanzando. Lograr que el tema se discuta en la agenda política es una oportunidad: podemos aprender de los avances globales para establecer políticas que protejan a los ciudadanos sin comprometer el desarrollo económico. Aquí, el diálogo entre empresas, gobiernos, sociedad civil y academia es crucial.
Una regulación a la medida
Un punto clave es definir claramente qué constituye esta tecnología. A nivel global, organismos como la UNESCO han trabajado para establecer definiciones y marcos que permitan una normativa coherente. El país puede beneficiarse de estas bases, pero también debe adaptar las políticas a su propio contexto y necesidades.
Adoptar principios éticos, como la transparencia y el respeto por los derechos humanos fortalece la imagen de las empresas y las prepara para operar en un entorno global cada vez más alineado.
Con la llegada de más leyes de IA en distintas partes del mundo, las empresas que se adelanten en implementar estas políticas internas tendrán una ventaja competitiva y serán ejemplo también de la transformación tecnológica.