
Puedo imaginar perfectamente el dolor, la confusión y la traición en la voz de la anciana malasia que, según un miembro del personal del hotel, preguntó “¿Por qué le hacen esto a la gente?” cuando descubrió que el destino de sus vacaciones soñadas no era real, sino un video fabricado con Veo3, el motor de Inteligencia Artificial (IA) generativo de Google.
Ella y su esposo acababan de conducir tres horas desde Kuala Lumpur hasta este lugar en el estado de Perak, convencidos de que encontrarían una atracción panorámica en teleférico llamada Kuak Skyride. En lugar de una góndola para pasear por el paraíso, no encontraron nada más que un pueblo tranquilo y un empleado del hotel que intentaba explicar que la glamurosa periodista de televisión que habían visto en TikTok, la que había viajado en tranvía por frondosos bosques y entrevistado a turistas felices, nunca había existido.
Falsas vacaciones
Había un logo de Veo3 en la esquina inferior derecha. ¿Cómo no lo vieron? Bueno, es algo para contarles a los nietos y sentirse como un tonto. No hubo delincuentes que robaban 200,000 dólares de sus ahorros, ni acusaciones falsas para dañar la reputación de un abuelo, como otros han experimentado gracias a los videos creados con IA. No hubo daño real.
Excepto que es dañino. Es otro ladrillo más en los muros de nuestra realidad en un mundo que se derrumba en esta era de la posverdad. Los videos de IA han vuelto indistinguible lo imposible de lo real, y ahora convierten incluso la planificación de vacaciones en un campo minado de experiencias falsas. La historia de la supuesta pareja malasia podría parecer un incidente aislado, pero es la expresión de algo mucho más siniestro: la erosión total de nuestra capacidad de confiar en lo que vemos, oímos y experimentamos en un mundo donde la IA puede fabricar cualquier narrativa con una precisión cada vez más aterradora.
El agujero negro de la IA crece exponencialmente
Las cifras reflejan nuestra caída colectiva en el engaño digital. Los ataques deepfake se han disparado desde tan solo 0.1% de los intentos de fraude hace tres años, hasta 6.5% actual. Esto representa un asombroso aumento de 2137%; es decir, uno de cada 15 casos de fraude, según detalló la empresa de servicios de identidad Signicat en febrero de 2025.
Las estadísticas tienen víctimas reales tras ellas, como Steve Beauchamp, un jubilado de 82 años que agotó por completo su fondo de jubilación de 690,000 dólares tras ver videos deepfake de Elon Musk que promocionaban planes de inversión. “Es decir, la foto de él… era él”, declaró Beauchamp a The New York Times, y los ahorros de toda su vida se desvanecieron en el vacío digital.
El alcance del engaño impulsado por IA ahora afecta todos los aspectos de la experiencia humana. La empresa británica de ingeniería Arup perdió más de 25 millones de dólares cuando un empleado fue engañado durante una videoconferencia en la que aparecían versiones deepfake del director financiero de la empresa y otros miembros del personal. Un director de escuela en Maryland recibió amenazas de muerte después de que un clip de audio manipulado por IA lo mostrara haciendo comentarios racistas y antisemitas, una invención creada por su propio director deportivo para desacreditarlo. Ni siquiera la democracia misma está a salvo: llamadas automáticas generadas por IA que suplantaban al presidente Joe Biden animaron a los demócratas a no votar en las primarias de New Hampshire. La lista es interminable. Y ahora esta pareja.
Turismo generado por videos de IA
El engaño comenzó con un video publicado en TikTok por “TV Rakyat”, un canal de televisión que parece oficial, pero que solo existe en el ámbito de la IA. La grabación mostraba a una reportera que experimentaba el Kuak Skyride, un teleférico supuestamente ubicado en la ciudad de Kuak Hulu, en el estado de Perak. Viajó en el tranvía a través de hermosos bosques y montañas y entrevistaba a clientes satisfechos sobre sus viajes. Todo parecía perfecto, profesional y real.
El 30 de junio, la pareja se registró en su hotel en el estado de Perak y contactó con una empleada —cuyo nombre de usuario es @dyaaaaaaa._ en Threads— para preguntarle sobre el teleférico panorámico que habían visto en Internet. La empleada afirma que al principio pensó que bromeaban porque no había teleférico, ni atracción, ni nada que ver en los alrededores. Pero la pareja insistió y mostró el video detallado que habían visto de la presentadora de televisión y sus entrevistas con turistas felices.
Cuando el empleado explicó que lo que habían visto era un video generado por IA, la pareja se negó a creerlo. Habían conducido tres horas una ruta basada en imágenes que parecían completamente auténticas, con una presentación profesional de noticias y testimonios de clientes satisfechos. Según el empleado del hotel, la anciana amenazó con demandar a la periodista que aparecía en el video antes de descubrir que ella también era solo una creación de píxeles de la imaginación de una IA.
Las cosas ya estaban bastante mal
El turismo ya se ahogaba en la realidad artificial antes de que la IA perfeccionara el arte del engaño. Las redes sociales han transformado los viajes en “turismo de selfies”, donde los visitantes acuden a destinos no para una inmersión cultural, sino para capturar fotos dignas de Instagram para sus feeds. La UNESCO ha declarado la alerta máxima contra este fenómeno y ha advertido que los viajeros ahora visitan lugares emblemáticos “principalmente para tomarse y compartir fotos, a menudo con lugares emblemáticos de fondo”.
Las consecuencias son devastadoras. En Hallstatt, Austria —la ciudad que inspiró la película Frozen de Disney—, más de un millón de turistas acuden anualmente para recrear momentos virales, lo que obliga al frustrado alcalde a erigir vallas y a declarar a la prensa que “los habitantes de la ciudad solo quieren que los dejen en paz”. Las góndolas de Venecia se vuelcan cuando los turistas se niegan a dejar de fotografiar. Portofino, Italia, ahora multa con 300 dólares a los visitantes por demorarse demasiado en lugares populares para selfies para evitar lo que el alcalde Matteo Viacava llama “caos anárquico”.
Influencers empeoran el problema de los videos de IA
Esto fue producto de influencers que ya distorsionaban la realidad con fotos cuidadosamente recortadas de playas vacías y maravillas arquitectónicas; eliminaban las multitudes aplastantes y la destrucción ambiental que trae el turismo masivo. Estas fantasías curadas crearon expectativas poco realistas sobre los destinos turísticos, lo que provocó masificación, sobrecarga de infraestructura y la degradación de las comunidades locales. Y ni me hablen de los influencers de viajes generados por IA. Sí, los falsos humanos que venden consejos de viaje en videos de IA se han convertido en una industria —y aunque mucha gente los odia, muchos otros se creen totalmente la estafa—. Incluso gobiernos como el de Alemania los han sancionado: la Oficina Nacional de Turismo de Alemania lanzó una campaña de marketing en línea en 2024 que presentaba personalidades artificiales para promocionar los viajes al país.
Es una perspectiva deprimente. La experiencia de la pareja malasia es solo el capítulo más reciente en nuestro viaje de la realidad a la realidad manipulada y, finalmente, a la realidad completamente inventada. Me digo que solo podemos afrontarla con campañas educativas generalizadas, pero me temo que siempre será demasiado poco y demasiado tarde.