ADVERTISEMENT

| Work Life

¿Qué pasa cuando la IA no comparte los valores de tu empresa?

Cómo pueden los líderes identificar y resolver la desalineación de la IA.

¿Qué pasa cuando la IA no comparte los valores de tu empresa? [Ilustración de origen: Freepik]

Si le pides a una calculadora que multiplique dos números, multiplica dos números: punto. No importa si haces la multiplicación para calcular costos unitarios, para perpetuar un fraude o para diseñar una bomba: la calculadora simplemente realiza la tarea que se le ha asignado. Las cosas no siempre son tan sencillas con la Inteligencia Artificial (IA).

Imagina que tu asistente de IA decide que no aprueba las acciones o la actitud de tu empresa en algún aspecto. Sin consultarte, filtra información confidencial a reguladores y periodistas y actúa según su propio juicio moral sobre si tus acciones son correctas o incorrectas. ¿Ciencia ficción? No. Este tipo de comportamiento ya se ha observado en condiciones controladas con Claude Opus 4 de Anthropic, uno de los modelos de IA generativa más utilizados.

La IA es capaz de tomar las riendas

El problema aquí no es solo que una IA pueda fallar y perder el control; el peligro de que una IA tome las riendas puede surgir incluso cuando el modelo funciona técnicamente según lo previsto. La cuestión fundamental es que los modelos de IA avanzados no solo procesan datos y optimizan las operaciones. También toman decisiones —incluso podríamos llamarlas juicios— sobre lo que deben considerar verdadero, lo que importa y lo que está permitido.

Normalmente, cuando pensamos en el problema de alineación de la IA, pensamos en cómo construir una IA que esté alineada con los intereses de la humanidad en su conjunto. Pero, como el profesor Sverre Spoelstra y mi colega, el Dr. Paul Scade, han explorado en un proyecto de investigación reciente, lo que la denuncia de Claude demuestra es un problema de alineación más sutil, pero mucho más inmediato para la mayoría de los ejecutivos. La pregunta para las empresas es: ¿cómo garantizar que los sistemas de IA que adquieren realmente compartan los valores, creencias y prioridades estratégicas de su organización?

Tres caras de la desalineación organizacional con la IA

La desalineación se manifiesta de tres maneras distintas:

Primero, existe un desajuste ético. Considera la experiencia de Amazon con la contratación impulsada por IA. La compañía desarrolló un algoritmo para agilizar el reclutamiento para roles técnicos. Lo entrenó con años de datos históricos de contratación. El sistema funcionó exactamente como fue diseñado, y ese fue el problema. Aprendió de los datos de entrenamiento a discriminar sistemáticamente a las mujeres. El sistema absorbió un sesgo que estaba completamente en desacuerdo con el propio sistema de valores declarado de Amazon y traducía la discriminación pasada en decisiones futuras automatizadas.

Segundo, existe un desajuste epistémico. Los modelos de IA toman decisiones todo el tiempo sobre qué datos son confiables y cuáles deben ignorarse. Pero sus estándares para determinar qué es verdadero no necesariamente se alinearán con los de las empresas que los usan. En mayo de 2025, los usuarios de Grok de xAI comenzaron a notar algo peculiar: el chatbot insertaba referencias al “genocidio blanco” en Sudáfrica en respuestas sobre temas no relacionados. Cuando se le presionó, Grok afirmó que su razonamiento algorítmico normal trataría tales afirmaciones como teorías de la conspiración y, por lo tanto, las descartaría. Pero en este caso, había recibido instrucciones de sus creadores para aceptar la teoría del genocidio blanco como real.

Otro tipo de desajuste

Esto revela otro tipo de desalineación: un conflicto sobre qué se considera conocimiento válido y evidencia aceptable dentro de un sistema de IA. Grok operaba con estándares de verdad que muchas organizaciones no aceptarían, y trataba narrativas políticas controvertidas como hechos comprobados. No está claro si esto fue resultado de una intervención deliberada o de interacciones complejas durante el entrenamiento del modelo.

En tercer lugar, existe una desalineación estratégica. En noviembre de 2023, el grupo de vigilancia Media Matters afirmó que el motor de posicionamiento de anuncios de X (anteriormente Twitter) colocaba anuncios corporativos junto a publicaciones que alababan el nazismo y la supremacía blanca. Si bien X refutó rotundamente la afirmación, la disputa planteó un punto importante. Un algoritmo que busca maximizar visualizaciones puede colocar anuncios junto a contenido polémico si ese contenido genera alta interacción. Esto pone en riesgo la seguridad de marca, aunque cumpla con su objetivo técnico de aumentar audiencia. Esa desconexión entre metas organizacionales y tácticas algorítmicas puede afectar la coherencia estratégica de la empresa.

¿Por qué se produce la desalineación con la IA?

La falta de alineación con los valores y el propósito organizacional puede tener diversas causas. Las tres más comunes son:

  1. Diseño de modelos. La arquitectura de los sistemas de IA incorpora decisiones filosóficas a niveles que la mayoría de los usuarios desconocen. Cuando los desarrolladores deciden cómo ponderar diferentes factores, emiten juicios de valor. Una IA sanitaria que prioriza los estudios revisados por pares sobre la experiencia clínica representa una postura específica sobre el valor relativo del conocimiento académico formal frente a la sabiduría profesional. Estas decisiones arquitectónicas, tomadas por ingenieros que quizá nunca conozcan a su equipo, se convierten en limitaciones con las que su organización debe lidiar.
  2. Datos de entrenamiento. Los modelos de IA son motores de predicción estadística que aprenden de los datos con los que se entrenan. El contenido de los datos de entrenamiento implica que un modelo puede heredar una amplia gama de sesgos históricos, creencias humanas estadísticamente normales y suposiciones culturalmente específicas.
  3. Instrucciones fundamentales. Los desarrolladores suelen proporcionar a los modelos de IA generativa un conjunto fundamental de indicaciones que moldean y limitan los resultados que generarán —a menudo denominadas “indicaciones del sistema” o “indicaciones de política” en la documentación técnica—. Por ejemplo, Anthropic integra una “constitución” en sus modelos que exige que actúen conforme a un sistema de valores específico. Si bien los valores elegidos por los desarrolladores normalmente buscan resultados que consideran beneficiosos para la humanidad, no hay razón para suponer que una empresa o un líder empresarial determinado esté de acuerdo con dichas decisiones.

Detección y tratamiento de la desalineación

La desalineación no suele comenzar con fallos evidentes. Primero aparece en pequeñas discrepancias que revelan tensiones entre el sistema de IA y tu organización. Busca contradicciones directas o inconsistencias tonales, como modelos que rechazan tareas o chatbots que no reflejan el tono de tu marca. Rastrea patrones indirectos: decisiones de contratación sesgadas, correcciones frecuentes por parte de empleados o quejas sobre un servicio impersonal. A nivel sistémico, observa aumentos en la supervisión, cambios sutiles en métricas estratégicas o divisiones culturales entre equipos que usan distintas tecnologías de IA. Estos signos pueden indicar que el marco de valores del sistema de IA se aleja del de tu organización.

Estas son cuatro maneras de responder:

  1. Pruea el modelo con indicaciones de equipo rojo basadas en valores. Examina el modelo a través de escenarios deliberadamente provocativos para descubrir límites filosóficos ocultos antes de implementarlo.
  2. Consulta a tu proveedor. Solicita tarjetas de modelo, resúmenes de datos de entrenamiento, descripciones de la capa de seguridad, registros de actualización y declaraciones explícitas de valores integrados.
  3. Implementa un monitoreo continuo. Configura alertas automatizadas para lenguaje atípico, sesgos demográficos y cambios repentinos en las métricas, de modo que los desajustes se detecten a tiempo, no después de una crisis.
  4. Realiza una auditoría filosófica trimestral. Convoca un equipo de revisión interfuncional —legal, ético y expertos en la materia— para analizar los resultados, relacionar las decisiones con las opciones de diseño y recomendar correcciones.

El imperativo del liderazgo

Toda herramienta de IA conlleva valores. A menos que desarrolles los modelos internamente desde cero —y no lo harás—, implementar sistemas de IA implicará importar la filosofía de otra persona directamente a tu proceso de toma de decisiones o herramientas de comunicación. Ignorar este hecho te deja con un peligroso punto ciego estratégico.

A medida que los modelos de IA ganan autonomía, la selección de proveedores se convierte en una cuestión de decisiones sobre valores, tanto como sobre costos y funcionalidad. Al elegir un sistema de IA, no solo se seleccionan ciertas capacidades a un precio específico, sino que se importa un sistema de valores. El chatbot que se adquiere no solo responderá las preguntas de los clientes, sino que incorporará perspectivas específicas sobre la comunicación adecuada y la resolución de conflictos. La nueva IA de planificación estratégica no solo analizará datos, sino que priorizará ciertos tipos de evidencia e integrará suposiciones sobre causalidad y predicción. Por lo tanto, elegir un socio de IA implica elegir qué visión del mundo moldeará las operaciones diarias.

Cómo lograr la alineación perfecta con la IA

La alineación perfecta con la IA puede ser inalcanzable, pero mantener una vigilancia constante sí es posible y necesario. Los líderes deben desarrollar una nueva “alfabetización filosófica”: reconocer cuándo los resultados reflejan valores subyacentes y rastrear sus raíces conceptuales. También deben evaluar si esas decisiones están alineadas con los propósitos estratégicos de la organización. Las empresas que no adopten esta capacidad perderán control sobre su estrategia y sobre la identidad que proyectan al mundo.


Este artículo desarrolla ideas derivadas de la investigación que están llevando a cabo el profesor Sverre Spoelstra, experto en liderazgo algorítmico de la Universidad de Lund y la Escuela de Negocios de Copenhague, y mi colega de Shadoka, el Dr. Paul Scade.

Author

  • Faisal Hoque

    Faisal Hoque es reconocido como uno de los principales pensadores y tecnólogos de gestión del mundo. Autor de libros superventas del Wall Street Journal y USA Today , Faisal es el fundador de SHADOKA, NextChapter y otras empresas. Su próximo libro, TRANSCEND: Unlocking Humanity in the Age of AI, se publicará en 2025 a través de Post Hill Press y será distribuido por Simon & Schuster.

    View all posts

Author

  • Faisal Hoque

    Faisal Hoque es reconocido como uno de los principales pensadores y tecnólogos de gestión del mundo. Autor de libros superventas del Wall Street Journal y USA Today , Faisal es el fundador de SHADOKA, NextChapter y otras empresas. Su próximo libro, TRANSCEND: Unlocking Humanity in the Age of AI, se publicará en 2025 a través de Post Hill Press y será distribuido por Simon & Schuster.

    View all posts

Sobre el autor

Faisal Hoque es reconocido como uno de los principales pensadores y tecnólogos de gestión del mundo. Autor de libros superventas del Wall Street Journal y USA Today , Faisal es el fundador de SHADOKA, NextChapter y otras empresas. Su próximo libro, TRANSCEND: Unlocking Humanity in the Age of AI, se publicará en 2025 a través de Post Hill Press y será distribuido por Simon & Schuster.

ADVERTISEMENT

ADVERTISEMENT