 [Fuente de la foto: Freepik]
                [Fuente de la foto: Freepik]
    La última palabra de moda es “alfabetización en inteligencia artificial (IA)”. Al igual que con “redes sociales”, “ESG” y “RSE” antes, los empleadores ahora buscan pruebas de fluidez en estos temas en los currículum, y las personas están desesperadas por diferenciarse para demostrar que se mantienen al día.
Y está por todas partes: las menciones de términos como “IA agentiva”, “fuerza laboral de IA”, “trabajo digital” y “agentes de IA” durante las presentaciones de resultados aumentaron casi 800% el año pasado, según datos de AlphaSense. En los últimos cinco años, se espera que los trabajadores de todos los sectores dominen una tecnología en constante evolución y aún relativamente nueva para muchos, incluidos los líderes que la implementan. El problema con la IA es que, para cuando un candidato envía su currículum, su nivel de dominio ya está desactualizado.
Es una fuerza silenciosa y corrosiva que mantiene a la gente en silencio justo cuando más necesitamos sus voces. Pero, ¿y si el verdadero problema no es el ritmo del cambio ni la falta de comprensión de la IA, sino que les hemos hecho sentir vergüenza por su desconocimiento, impidiendo que levanten la mano y digan: “No lo sé”?
La vulnerabilidad nos hace humanos. Mark Cuban publicó recientemente en X: “La mayor debilidad de la IA es su incapacidad para decir ‘No lo sé'”. Nuestra capacidad de admitir lo que desconocemos siempre nos dará una ventaja. Entonces, ¿por qué estamos creando un entorno y fomentando culturas laborales que animan a la gente a “fingir hasta lograrlo” en lo que respecta a la IA? El precio del silencio es real. Corremos el riesgo de caer en el olvido por la vergüenza.
La espiral de la vergüenza en acción
Todo el mundo habla del auge de la IA. Pero casi nadie habla del sentimiento de vergüenza que está generando. La IA no solo tiene un impacto a largo plazo en la economía, sino también en la vida cotidiana de las personas. Las empresas están reemplazando personal más rápido de lo que lo capacitan y, en algunos casos, como Klarna, despiden a trabajadores solo para volver a contratarlos cuando las herramientas de IA resultan insuficientes. La gente pierde oportunidades laborales, no por falta de cualificación, sino porque nadie les ofrece una alternativa. Se sienten como impostores en entornos donde ya se han ganado el derecho a estar. Dentro de las empresas, vemos cómo se aprueban herramientas sesgadas y cómo los atajos se convierten en sistemas.
Un informe reciente de LinkedIn revela que 35% de los profesionales se sienten demasiado nerviosos para hablar de IA en el trabajo, y 33% se avergüenza de lo poco que saben al respecto. No se trata solo de trabajadores, sino también de padres y líderes comunitarios.
Esta espiral de vergüenza, alimentada por la exageración que afirma que “todos entienden la IA menos tú”, corre el riesgo de sofocar la curiosidad y las preguntas críticas incluso antes de que surjan. Este patrón revela un problema mayor: mientras la gente se siente demasiado avergonzada para participar, los sistemas de IA están tomando el control y tomando decisiones, graduales pero importantes, que nos afectan a todos. Para evitar la vergüenza, la gente opta por atajos.
Las fallas de la IA
Un reclutador podría confiar en un filtro de currículum basado en IA sin comprender su funcionamiento ni qué candidatos podría estar descartando. Un gerente podría aprobar una herramienta que decide quién recibe atención extendida sin preguntar qué impulsa el algoritmo. Un padre o madre podría dar su visto bueno a una herramienta de enseñanza con IA sin saber quién diseñó el plan de estudios. Una encuesta de Microsoft y LinkedIn de 2024 reveló que solo 39% de las personas a nivel mundial que utilizan IA en el trabajo han recibido capacitación en IA por parte de su empresa.
Hemos visto las consecuencias de que estos sistemas no estén regulados. Amazon desechó su herramienta de reclutamiento con IA tras descubrirse que discriminaba a las mujeres. Workday se enfrenta a una demanda colectiva que alega que sus herramientas de selección con IA excluyen sistemáticamente a trabajadores mayores y personas con discapacidad de las oportunidades laborales. El chatbot Tay de Microsoft, lanzado con la intención de aprender de las conversaciones, fue víctima de trolls y, en menos de 24 horas, publicaba contenido racista, misógino y ofensivo.
Cuando el silencio sustituye a la curiosidad, las personas esencialmente se excluyen del proceso de toma de decisiones hasta que dejan de ser tenidas en cuenta.
Redefiniendo la realidad del lugar de trabajo
La IA ya está aquí y está transformando el mundo laboral. La decisión es nuestra: ¿involucrar a las personas en esta transformación y ayudarlas a formar parte de ella, o dejarlas atrás en aras de la eficiencia?
Lo que impulsa a las personas de la ansiedad al control no son más conferencias ni tutoriales. Las personas se inspiran en la libertad y las herramientas. Libertad para empezar. La libertad y el espacio para aprender. Los usuarios de IA más seguros no son expertos; experimentan con diferentes herramientas hasta encontrar la que mejor se adapta a sus necesidades.
La dignidad digital comienza con ese permiso: el permiso para hacer preguntas básicas, para ir más despacio, para reconocer las carencias. Significa que los líderes den ejemplo de vulnerabilidad antes de exigir a los empleados que muestren la suya.
Para aprovechar al máximo el potencial de la IA, debemos centrarnos en el impacto, no en la mecánica. No es necesario programar una red neuronal, pero sí es necesario detectar cuándo los sistemas de IA toman decisiones sobre nosotros. Comencemos por lo que nos afecta directamente: los padres pueden preguntar qué herramientas utilizan las escuelas, quienes buscan empleo pueden informarse sobre cómo funciona la selección de currículos y los managers pueden preguntar qué herramientas de IA se implementarán en su lugar de trabajo y qué capacitación se incluye.
La franqueza acelera la adopción
Practica decir “No lo sé”. Los mejores líderes ven las lagunas de conocimiento como oportunidades para hacer buenas preguntas. JPMorgan creó espacios de bajo riesgo para que los jefes experimentaran con la IA, animándolos a admitir cuando se encontraban con dificultades. Esta franqueza generó confianza y aceleró la adopción. Johnson & Johnson impulsó la experimentación a gran escala en todas las unidades de negocio, generando casi 900 casos de uso de IA/IA generativa en investigación, cadena de suministro, área comercial y soporte interno. ¿El resultado? Un chatbot interno para empleados y un enfoque innovador para lograr ensayos clínicos más representativos.
Esto no es solo una falta de conocimiento. Es una cultura del silencio. Y si no la rompemos, la IA no será una herramienta de transformación; será un espejo de todos los sistemas que nos avergonzaba cuestionar.
Lo más poderoso que podemos decir en este momento es: “No lo sé. Pero quiero aprender”.
Porque el futuro aún se está escribiendo, y todos merecemos tener voz y voto en su elaboración.
![[Foto: Mario Tama/Getty Images]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2025/10/31105324/p-1-91433010-netflix-stock-split-nflx-10-for-1-split.webp)
![[Imagen: Cortesía]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2025/10/31105819/IA-52.jpg)
![[Fuente de la foto: Freepik]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2025/10/30123822/p-91422618-what-to-do-when-productivity-is-a-trap.webp)
![[Foto: Cortesía FIFA]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2025/10/31122852/Fast-Compny-boletos-ganar-mundial-2026-Cortesia.jpg)
![[Captura de pantalla: Lance el perro]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2025/10/29125331/p-1-91426228-sora-fake-youtube-channel-views.webp) 
         
        ![[Imagen: Canva]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2025/10/28170228/DROP25009_NewsroomPR_Forms-Still_es-MX.png)