[Imágenes: Nathan Howard/Getty Images; Adoeb Stock]
De camino al trabajo, ves un video de TikTok del presidente admitiendo un delito. En el ascensor, escuchas a tu banda favorita, pero la canción te resulta completamente desconocida. En tu escritorio, abres un correo electrónico de un ejecutivo de otro departamento. Contiene información de ventas válida y aborda un asunto legal relevante, pero la redacción suena extrañamente rígida. Después de comer, la CEO envía a todos los gerentes un enlace a una nueva aplicación que había propuesto casualmente solo unos días antes. Más tarde, entrevistas a un candidato por Zoom, pero la persona se ve diferente a su foto de LinkedIn. Cualquiera o todas estas cosas podrían haber sido generadas por herramientas o agentes de inteligencia artificial.
Sin embargo, nuestros patrones epistémicos predeterminados siguen asumiendo que todas estas cosas son creadas por humanos a menos que la información disponible demuestre lo contrario. Aún no hemos entrado en un paradigma de “confianza cero” donde el contenido se “es generado por IA a menos que se demuestre su autenticidad”.
En cambio, nos encontramos en un punto intermedio inquieto. La pregunta que surge ahora cada vez que nos encontramos con una nueva imagen, vídeo o información: ¿Es generado por inteligencia artificial? Cada vez más, la respuesta será sí. Estamos tan cerca de esa realidad de confianza cero que podemos verla acercarse en el horizonte.
Más allá de los deepfakes
Los deepfakes fueron solo el principio. Los videos generados por inteligencia artificial, diseñados para engañar o incitar, se consideraban, no hace mucho, una novedad. Ahora son comunes en todo, desde la pornografía vengativa hasta la política.
La música generada por inteligencia artificial se ha popularizado. El año pasado, una canción completamente generada por IA llamada Walk My Walk de Breaking Rust alcanzó el número 1 en la lista Billboard Country Digital Song Sales. Un anuncio de televisión generado por IA, realizado con Veo 3, Gemini y ChatGPT de Google, también se emitió durante el tercer partido de las Finales de la NBA.
Según un informe de Gallup del tercer trimestre de 2025, 45% de los empleados estadounidenses utilizan inteligencia artificial en el trabajo. De forma similar, la empresa de entregabilidad de correo electrónico ZeroBounce descubrió en una encuesta realizada en septiembre de 2025 que uno de cada cuatro trabajadores utiliza IA a diario para redactar correos electrónicos, y es probable que esa cifra haya aumentado. La misma encuesta reveló que una cuarta parte de los trabajadores sospecha que su evaluación de desempeño se redactó con IA.
Según la mayoría de los informes, el uso de agentes de IA en los flujos de trabajo corporativos aún se encuentra en sus primeras etapas. Sin embargo, las empresas de IA afirman que nos encaminamos hacia un futuro en el que agentes de diferentes departamentos colaborarán para completar tareas administrativas, como la compensación a proveedores, o para recopilar materiales de apoyo a la toma de decisiones, como un caso de negocio para entrar en un nuevo mercado o realizar una adquisición.
Agentes de inteligencia artificial y otras herramientas
Es probable que los agentes de inteligencia artificial —incluyendo herramientas de investigación profunda o inteligencia empresarial— desempeñen algún papel en la elaboración de informes que los gerentes reciben en el trabajo. AWS, de Amazon, afirma que sus clientes han utilizado agentes de IA para ahorrar más de un millón de horas de esfuerzo manual. McKinsey predice que para 2030, el uso de agentes y robots podría generar un valor aproximado de 2.9 billones de dólares en EU si las organizaciones rediseñan sus flujos de trabajo para que “personas, agentes y robots trabajen juntos”. (Por supuesto, McKinsey quiere ayudarles a lograrlo).
Dependiendo de su conocimiento técnico, la CEO mencionada podría haber creado una nueva aplicación con Replit o Bolt. Estas herramientas, llamadas herramientas de codificación de vibración, pueden generar una prueba de concepto creíble en un fin de semana. Es posible que luego la haya encomendado a ingeniería de software, cuyos desarrolladores podrían usar Claude Code, Codex o Cursor para convertir la idea en una aplicación lista para producción que se conecte a las bases de datos de la empresa y a herramientas de terceros. Un estudio de Stack Overflow de finales de 2025 afirma que alrededor del 84% de los desarrolladores utilizan o planean utilizar herramientas de codificación de IA; aproximadamente la mitad ya las usa diario.
Al solicitar empleos remotos, cada vez más candidatos buscan mejorar sus posibilidades con herramientas de IA. Usan esta tecnología para mejorar su rostro o voz o generan respuestas en tiempo real durante las entrevistas. La empresa de autenticación de voz Pindrop afirma que, en sus propias entrevistas en video, se encuentra regularmente con solicitantes que utilizan software de deepfakes y otras herramientas de IA generativa para intentar conseguir un trabajo. Gartner predice que para 2028, una cuarta parte de todos los solicitantes remotos serán generados por IA.
Antes, los deepfakes amenazaban con distorsionar la realidad; ahora, la distorsión es estructural, está integrada en los sistemas que generan cultura, gestionan empresas y deciden quién es contratado.
Inteligencia artificial convertida en arma
Pero el estafador puede tener un objetivo diferente, lo que apunta a escenarios en los que las herramientas de IA generativa no solo se utilizan para ahorrar tiempo, sino como armas. La IA puede ayudar a ocultar la identidad real de los solicitantes de empleo que intentan extraer información confidencial de la empresa o, peor aún, conseguir un puesto para instalar ransomware.
Los estafadores también utilizan cada vez más herramientas avanzadas de intercambio de rostros y voces para cometer fraudes descarados. En 2024, unos estafadores se hicieron pasar por altos ejecutivos de la empresa de ingeniería Arup durante una videollamada utilizando sofisticadas herramientas de IA. Engañaron a un empleado de finanzas para que les enviara 25 millones de dólares.
Intuimos que nuestros valores epistémicos predeterminados —nuestros detectores de errores de IA, por así decirlo— podrían estar rezagados respecto a lo que la tecnología ya puede hacer. Y esa sospecha es correcta. Los momentos de asombro que acompañan a los nuevos avances de la IA ahora llegan con sorprendente regularidad.
Recientemente, algunos usuarios y periodistas concluyeron que la plataforma de agentes OpenClaw se había vuelto consciente tras observar cómo los agentes completaban tareas de forma independiente, desplegaban humanos para finalizar las asignaciones y luego se reunían en su propio foro en línea para debatirlo. Al mismo tiempo, muchos usuarios de ChatGPT lamentan la inminente pérdida de GPT-4o porque desarrollaron un apego personal al modelo. Los nuevos sistemas chinos de generación de video, como Seedance 2.0 y Kling 3.0 de ByteDance, producen video altamente controlable que es cada vez más difícil de distinguir de las imágenes captadas por una cámara.
La próxima ola tecnológica
Las redes sociales, en muchos sentidos, actúan como intermediarias, proporcionando una lente gran angular a través de la cual una persona ve el mundo. Para aumentar la interacción y las visualizaciones de anuncios, Facebook distorsionó esa perspectiva, en detrimento tanto de la democracia como de los niños. Esta semana, Meta, la empresa matriz de Facebook, se defiende en un tribunal de Los Ángeles tras años de implementar funciones de diseño, como el scroll infinito, que, según los críticos, resulta perjudicialmente adictivo para los usuarios más jóvenes.
Esa fue la última revolución tecnológica y dependía del contenido creado por los usuarios. Pero con la IA, la web puede generar su propio contenido bajo demanda. Esto podría otorgar un inmenso poder a unas pocas empresas de IA, quizás incluso más del que se les dio a las de redes sociales.
Con tanto dinero e influencia en juego, la pregunta es si las empresas de IA harán lo que empresas como Meta no hicieron y trazarán una línea clara entre el contenido creado por humanos y el generado por máquinas. Lo dudo mucho, especialmente con una clase multimillonaria y una administración Trump haciendo todo lo posible por reprimir la legislación que podría proteger a los consumidores de IA.
Si ese es el caso, entonces quizás adoptar un enfoque de confianza cero para todo lo que aparece en nuestras pantallas sea la única vía.
![[Imagen impulsada por IA]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/02/12175851/ChatGPT-Image-12-feb-2026-17_56_19.jpg)
![[Fotos: CSA Images/Getty Images, trekandphoto/Adobe Stock]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/02/12160501/p-1-91480898-psy-op-car-culture.webp)
![[Fotos originales: Dave Kotinsky/Getty Images para MrBeast Burger; Victoria Sirakova/Getty Images; Smith Collection/Gado/Getty Images]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/02/12085443/p-2-91490295-mrbeast-business-empire-step-banking-app.webp)