| Impact

Ahora es demasiado fácil estafar por culpa de la IA

Ahora es posible engañar a las aseguradoras con radiografías generadas por inteligencia artificial. Este es solo el ejemplo más reciente de cómo se puede estafar a todo el mundo.

Ahora es demasiado fácil estafar por culpa de la IA [Ilustración: FC]

Hacer trampa ahora es muy fácil. Con la inteligencia artificial (IA) generativa, cualquiera puede conseguir comida o producto gratis. Incluso pueden obtener dinero gratis estafando al propio gobierno. Y, como acaban de descubrir los radiólogos, también pueden engañar a médicos y compañías de seguros con radiografías generadas por IA.

Según un nuevo estudio publicado por la Sociedad Radiológica de Norteamérica, la mayoría de los expertos ya no pueden distinguir las fracturas simuladas de las reales. El fraude al seguro, indetectable, está al alcance de un clic. Es solo el último ejemplo de una creciente lista de estafas fáciles y gratuitas, posibles gracias a la IA. Y la situación solo va a empeorar.

Radiografías falsas

Un estudio de la Sociedad Radiológica de Norteamérica sometió a 17 médicos especialistas de seis países diferentes, algunos con hasta 40 años de experiencia, a una prueba visual con 264 radiografías: la mitad auténticas y la otra mitad sintéticas, creadas con herramientas de IA como ChatGPT y el modelo de código abierto RoentGen de Stanford. Al desconocer por completo la presencia de estas imágenes artificiales, los médicos solo lograron identificar correctamente las radiografías sintéticas 41% de las veces.

Incluso después de recibir advertencias explícitas de que había falsificaciones ocultas en el lote, su tasa de éxito promedio apenas alcanzó 75%, y osciló entre un decepcionante 58% y un respetable, aunque imperfecto, 92%. Según el estudio, las décadas de experiencia práctica de un médico ofrecieron poca ventaja estadística para detectar el engaño, si bien los expertos en el sistema musculoesquelético obtuvieron resultados ligeramente mejores que sus colegas.

Para colmo, los grandes modelos de lenguaje responsables de dar origen a esta artimaña digital (entre ellos GPT-4o, GPT-5, Gemini 2.5 Pro y Llama 4 Maverick de Meta) no obtuvieron mejores resultados como detectives automatizados, con tasas de precisión de entre el 57% y el 85%.

[Ilustración: FC]

Cómo identificar a la IA

“Nuestro estudio demuestra que estas radiografías deepfake son lo suficientemente realistas como para engañar a los radiólogos, los especialistas en imagen médica más capacitados, incluso cuando sabían que se trataba de imágenes generadas por IA”, señaló el autor principal, el Dr. Mickael Tordjman. “Esto crea una vulnerabilidad grave que podría derivar en litigios fraudulentos si, por ejemplo, una fractura fabricada resultara indistinguible de una real. Además, existe un riesgo significativo para la ciberseguridad si los hackers accedieran a la red de un hospital e inyectaran imágenes sintéticas para manipular los diagnósticos de los pacientes o provocar un caos clínico generalizado al socavar la fiabilidad fundamental del historial clínico digital”.

Según Tordjman, las imágenes médicas generadas por IA suelen ser demasiado perfectas: huesos excesivamente lisos, columnas vertebrales anormalmente rectas, pulmones excesivamente simétricos, patrones vasculares excesivamente uniformes y fracturas inusualmente limpias y consistentes, a menudo limitadas a un solo lado del hueso. Pero estas son solo las herramientas del pasado. Al igual que con los videos generados por IA, pronto estas radiografías serán absolutamente perfectas e indetectables. Es la naturaleza de la IA, una tecnología en constante evolución. 

Para combatir esto, los expertos exigen marcas de agua invisibles y firmas criptográficas directamente vinculadas al técnico que realizó el escaneo, y actuó efectivamente como un sello matemático de autenticidad que demuestre que realmente había un cuerpo humano en la habitación.

Falsificaciones superficiales y tratos injustos

Las radiografías fraudulentas son un claro ejemplo de la manipulación de la verdad, cada vez más común. Un ejemplo claro es el auge de las falsificaciones digitales superficiales, que permiten generar un engaño financiero máximo con un mínimo esfuerzo.

Los consumidores comunes utilizan IA generativa para alterar visualmente sus pedidos de comida, lo que los convierte en desastres poco apetitosos. Un clic basta para manipular digitalmente el interior de una hamburguesa o una pieza de pollo para que parezca crudo, y así engañar a los algoritmos y a los representantes de atención al cliente para que aprueben reembolsos instantáneos.

“La tendencia es real y va en aumento”, comentó Alberto Palomar, especialista en fraude mediante IA generativa, al diario español El Confidencial. “La IA está poniendo al alcance de cualquiera, incluso de quienes no tienen conocimientos de tecnología, la posibilidad de llevar este tipo de engaños a todos los niveles”.

Quién paga por la estafa

Mientras que Uber Eats traslada estas pérdidas financieras fraudulentas directamente a los restaurantes desprevenidos, DoorDash mantiene una postura corporativa estricta, advirtiendo a los usuarios que “intentar engañar al sistema con una imagen falsa puede parecer ingenioso en el momento, pero no merece la pena arriesgarse a una prohibición permanente por un pedido de 20 dólares”.

[Ilustración: FC]

Las consecuencias humanas de esta estafa digital recaen directamente sobre los repartidores de comida. Cuando un cliente logra simular que la comida está dañada o mal hecha, el repartidor es penalizado con malas calificaciones o la desactivación permanente de su cuenta, explica Ligia Guallpa, directora ejecutiva del Proyecto de Justicia para los Trabajadores de Estados Unidos. “La principal queja de los repartidores es cómo las aplicaciones los castigan con tanta severidad por cosas que escapan a su control”, señala. Su organización estaba haciendo un seguimiento de aproximadamente 1,500 casos de desactivación activos.

Pero la situación es más compleja. Los repartidores también utilizan la tecnología para simular entregas que en realidad roban. Byrne Hobart, cliente de DoorDash en Austin, vio cómo su repartidor aceptaba el pedido, lo marcaba como completado al instante y subía una foto generada por IA en la que aparecía el repartidor en su porche. La empresa le reembolsó el dinero de la comida y declaró: “Tras investigar rápidamente este incidente, nuestro equipo eliminó permanentemente la cuenta del repartidor y se aseguró de que el cliente recibiera el reembolso completo”. 

El rastro documental del millón de dólares

Mientras tanto, la epidemia de microfraudes se transforma en una catástrofe macroeconómica para el sector asegurador mundial, convirtiendo pequeños rasguños de vehículos y teléfonos inteligentes rotos en enormes responsabilidades corporativas.

En Estados Unidos, “entre 20% y 30% de las reclamaciones de seguros pueden incluir ahora imágenes alteradas, documentos falsificados o informes médicos sintéticos”, afirma Shift Technology, una empresa tecnológica que proporciona agentes de IA para automatizar las reclamaciones.

En el Reino Unido, la aseguradora Allianz informó de un aumento de 300% en el uso de la IA para modificar documentos, fotos y videos en las reclamaciones de sus clientes entre 2022 y 2023. La situación solo empeorará, según la empresa global de análisis de datos de seguros Verisk: “Uno de cada tres consumidores consideraría modificar digitalmente la imagen o el documento de una reclamación de seguro para reforzar su caso, y esa cifra asciende al 55% entre la Generación Z”.

En España, la aseguradora AXA afirma procesar hasta 30,000 documentos relacionados con siniestros al día, lo que dificulta la detección de manipulaciones sintéticas a gran escala. Arturo López-Linares, director de siniestros de AXA España, destacó la alarmante magnitud de estos esfuerzos. “Es una tendencia preocupante. Los documentos siempre se han falsificado, desde siempre. El problema ahora es la facilidad con la que se puede hacer y que estas herramientas están al alcance de todos”, advirtió. “Se le puede pedir a la IA que raye el coche o modifique la factura de un mecánico. Es imposible detectarlo a simple vista, por lo que también se necesita tecnología para identificarlo”.

Fraudes difíciles de detectar

Si bien reconoce que el número de personas que recurren a métodos digitales para hacer trampas asciende a poco más del 2% de la población, las cifras son implacables, afirma López-Linares: “Hemos pasado de identificar solo el 3% de los casos de fraude con métodos digitales hace unos años al 30% en la actualidad… pero ya se trata de millones de euros, y la IA desempeña un papel fundamental”.

El problema es que resulta imposible detectarlo. Claro, se pueden analizar los metadatos de una fotografía digital (las cadenas de código ocultas que funcionan como huellas digitales algorítmicas que registran la geolocalización, las especificaciones del dispositivo y la fecha y hora), pero como los metadatos se pueden falsificar fácilmente, esa barrera desaparece.

Algunos afirman que la defensa definitiva reside en software avanzado de análisis de imágenes, pero como ha demostrado el estudio de rayos X, esto también es complejo y pronto será imposible. Las futuras generaciones de IA superarán cualquier contramedida forense que desarrollemos. Además, el coste de estas medidas, que serán costosas de implementar y mantener en centros de datos, prácticamente imposibilita la supervivencia de las pequeñas y medianas empresas.

“Esto es lo que les ocurre a muchas empresas: procesar devoluciones o invertir para detectar el fraude les cuesta más que asumir ese coste”, concluyó Palomar.

Quizás ahora que la IA empieza a afectar a la economía, a las ganancias de las corporaciones y a los gobiernos, la presión será lo suficientemente alta como para impulsar soluciones obligatorias de certificación de la veracidad que nos beneficien a todos.

Author

  • Jesús Díaz

    es guionista y productor, cuyo trabajo más reciente incluye la miniserie documental Control Z: The Future to Undo, el diario futurista Novaceno y el libro The Secrets of Lego House.

    View all posts

Author

  • Jesús Díaz

    es guionista y productor, cuyo trabajo más reciente incluye la miniserie documental Control Z: The Future to Undo, el diario futurista Novaceno y el libro The Secrets of Lego House.

    View all posts

Sobre el autor

es guionista y productor, cuyo trabajo más reciente incluye la miniserie documental Control Z: The Future to Undo, el diario futurista Novaceno y el libro The Secrets of Lego House.