
Cuando ChatGPT se viralizó, los equipos directivos se apresuraron a comprenderlo, pero sus empleados ya se les habían adelantado. Los trabajadores ya experimentaban con herramientas de Inteligencia Artificial (IA) entre bastidores, utilizándolas para resumir notas, automatizar tareas y alcanzar objetivos de rendimiento con recursos limitados. Lo que empezó como un atajo para la productividad se convertió en una nueva norma laboral.
Según el Índice de Tendencias Laborales de Microsoft, tres de cada cuatro empleados utilizan IA en el trabajo, y casi 80% de los usuarios de IA en pequeñas y medianas empresas incorporan sus propias herramientas al lugar de trabajo; esa cifra es de 78% en las organizaciones más grandes. Estas herramientas abarcan desde generadores de texto, como ChatGPT, hasta plataformas de automatización y software de diseño basado en IA.
Este fenómeno ascendente se conoce como Bring Your Own AI (BYOAI), o “trae tu propia IA”. Mimetiza al anterior Bring Your Own Device (trae tu propio dispositivo), cuando los empleados comenzaban a usar sus teléfonos inteligentes y computadoras personales para tareas laborales, a menudo de que las empresas contaran con protocolos para gestionarlos. Estas políticas evolucionaron con el tiempo para abordar las preocupaciones sobre seguridad, privacidad de datos y control de acceso.
Con BYOAI, lo que está en juego es aún más importante
En lugar de dispositivos físicos, los empleados introducen algoritmos en sus flujos de trabajo que no han sido revisados por IT, el departamento de cumplimiento ni el departamento legal. Y en el cambiante entorno regulatorio actual, esto puede generar un grave riesgo: casi la mitad de los empleados que utilizan IA en el trabajo admitieron que lo hacían de forma inapropiada, como confiar en todas las respuestas de la IA sin verificarlas o confiarle información confidencial.
La tendencia BYOAI no es un comportamiento marginal ni una moda tecnológica pasajera. Es una realidad en rápido crecimiento en los lugares de trabajo modernos, impulsada por empleados con exceso de trabajo, equipos con recursos insuficientes y la creciente accesibilidad a potentes herramientas de IA. Sin políticas ni supervisión, los trabajadores toman las riendas, a menudo utilizando herramientas que sus empleadores desconocen. Y si bien la intención puede ser la productividad, esto puede exponer a las empresas a filtraciones de datos y otros problemas de seguridad.
La brecha de cumplimiento se amplía
Ya sea un equipo de marketing que ingresa datos de clientes en un chatbot o un líder de operaciones que automatiza flujos de trabajo con complementos, estas herramientas pueden abrir silenciosamente la puerta a violaciones de la privacidad, decisiones sesgadas y fallas operativas.
Casi seis de cada 10 empleados dicen haber cometido errores en el trabajo debido a errores de IA y muchos la utilizan de forma incorrecta (57% admite errores, 44% la utiliza mal de forma consciente).
Sin embargo, según un informe de Deloitte de 2024 que encuestó a organizaciones a la vanguardia de la IA, solo 23% de estas organizaciones afirmó sentirse altamente preparada para gestionar los riesgos relacionados con la IA. Y solo 6%, según KPMG, contaba con un equipo dedicado a evaluar los riesgos de la IA e implementar medidas de seguridad.
“Cuando los empleados usan servicios externos de IA sin el conocimiento de sus empleadores tendemos a pensar en riesgos como pérdida de datos, filtraciones de propiedad intelectual, violaciones de derechos de autor [y] brechas de seguridad”, dice Allison Spagnolo, directora de privacidad y directora general de Guidepost Solution, una empresa que se especializa en investigaciones, cumplimiento normativo y consultoría de seguridad.
Cómo las empresas con visión avanzan
Algunas organizaciones están empezando a responder, no prohibiendo la IA, sino trabajando para capacitar a los empleados para que la utilicen.
Según el informe de Deloitte, 43% de las organizaciones que utilizan IA invierten en auditorías internas de IA, 37% capacita a los usuarios para reconocer y mitigar riesgos y 33% mantiene un inventario formal de cómo se utiliza la IA general, para que los managers puedan liderar con claridad, no con confusión.
Mientras tanto, Salesforce proporciona a sus empleados herramientas de IA seguras y homologadas, como Slack AI y Einstein, que se integran con los sistemas de datos internos, manteniendo límites estrictos en el uso de datos confidenciales y ofreciendo formación periódica. La empresa también cuenta con un marco para asesorar a otras empresas sobre cómo desarrollar su propia política de uso interno de la IA.
“La mejor estrategia es, de hecho, abrir esas vías de comunicación con los empleados”, afirma Reena Richtermeyer, socia de CM Law PLLC, una firma que asesora a clientes sobre temas de tecnología emergente. Richtermeyer afirma que los empleadores no deberían negarse a la IA, sino proporcionar a los empleados medidas de seguridad, parámetros y formación. Por ejemplo, tal vez los empleadores pidan a los empleados que solo utilicen datos públicos y que “descarten los datos de propiedad exclusiva, secretos comerciales o relacionados con los clientes”.
BYOAI no va a desaparecer
BYOAI no es solo una tendencia tecnológica. Es un desafío de liderazgo.
Los directivos ahora se encuentran supervisando el rendimiento tanto de las personas como de las máquinas, a menudo sin capacitación formal sobre cómo gestionar esta combinación eficazmente. Deben decidir cuándo la IA es apropiada, cómo evaluar su uso y garantizar que se mantengan los estándares éticos y de rendimiento.
Las empresas se benefician más al cambiar de políticas renuentes a las práctivas proactivas. Los empleados necesitan una comunicación clara sobre qué es seguro, qué está prohibido y dónde buscar orientación.
“Creo que tener una política específica de uso aceptable de la IA es realmente útil… puedes decirles a tus empleados exactamente cuáles son las expectativas, cuáles son los riesgos si se salen de esa política y cuáles son las consecuencias”, dice Spagnolo.
Las empresas que más se beneficiarán de la IA son aquellas que sepan cómo empoderar a sus empleados para que la usen e innoven con ella. Esto requiere que los líderes pasen de preguntar a sus empleados: “¿Estás usando IA?” a “¿Cómo podemos ayudarte a usarla bien?”.