ADVERTISEMENT

Advertisement
| Tech

El mundo clandestino de los chatbots de IA maliciosos está prosperando

Los chatbots de IA ilícitos pueden ganar hasta 28,000 dólares en dos meses con las ventas en los mercados clandestinos

El mundo clandestino de los chatbots de IA maliciosos está prosperando Unsplash

Los 200 millones de usuarios activos semanales de ChatGPT han ayudado a impulsar a OpenAI, la empresa detrás del rey de los chatbots de IA, a una valoración de 100,000 millones de dólares. Pero fuera del mainstream todavía hay mucho dinero por ganar, especialmente si se atiende al submundo.

Los grandes modelos de lenguaje (LLM) ilícitos pueden ganar hasta 28,000 dólares en dos meses con las ventas en los mercados clandestinos, según un estudio publicado el mes pasado en arXiv, un servidor de preimpresión propiedad de la Universidad de Cornell.

Eso es solo la punta del iceberg, según el estudio, que analizó más de 200 ejemplos de LLM maliciosos listados en mercados clandestinos entre abril y octubre de 2023. Los LLM se dividen en dos categorías: los que son LLM completamente sin censura, a menudo basados ​​en estándares de código abierto, y los que liberan a los LLM comerciales de sus barreras de protección mediante indicaciones.

Advertisement

“Creemos que ahora es un buen momento para empezar a estudiarlos, porque no queremos esperar hasta que el gran daño ya se haya producido”, afirma Xiaofeng Wang, profesor de la Universidad de Indiana en Bloomington y uno de los coautores del artículo. “Queremos adelantarnos a la curva y antes de que los atacantes puedan causarnos un gran daño”.

El auge de los chatbots de IA ilícitos

Aunque los hackers pueden a veces eludir las limitaciones incorporadas de los LLM convencionales destinadas a impedir actividades ilegales o cuestionables, estos casos son pocos y espaciados. En cambio, para satisfacer la demanda, han surgido chatbots de IA ilícitos. Y, como era de esperar, quienes están detrás de ellos están ansiosos por ganar dinero a costa de ese interés.

“Descubrimos que la mayoría de los servicios de chatbots de IA ilícitos en foros clandestinos existen principalmente para obtener ganancias”, afirma Zilong Lin, investigador de la Universidad de Indiana en Bloomington y otro de los coautores del artículo.

Los LLM maliciosos pueden utilizarse de diversas formas, desde escribir correos electrónicos de phishing (un estudio independiente estima que los LLM pueden reducir el coste de producción de dichos mensajes en un 96%) hasta desarrollar malware para atacar sitios web.

Las capacidades de estos LLM del mercado negro para llevar a cabo sus tareas pueden variar enormemente, aunque algunos son herramientas especialmente potentes. Lin y Wang descubrieron que dos LLM sin censura, DarkGPT (que cuesta 78 centavos por cada 50 mensajes) y Escape GPT (un servicio de suscripción que se cobra a 64.98 dólares al mes), pudieron producir código correcto alrededor de dos tercios de las veces. A su vez, el código que produjeron no fue detectado por las herramientas antivirus, lo que les dio una mayor probabilidad de atacar con éxito una computadora.

Otro LLM malicioso, WolfGPT —cuyo acceso cuesta una tarifa fija de 150 dólares— fue visto como una potencia en lo que respecta a la creación de correos electrónicos de phishing, logrando evadir la mayoría de los detectores de spam con éxito.

Los cibercriminales se valen cada vez más de chatbots de IA

La existencia de tales herramientas de IA maliciosas no debería sorprender, según Wang. “Es casi inevitable que los cibercriminales utilicen la IA”, afirma Wang. “Toda tecnología siempre tiene dos caras”.

Andrew Hundt, investigador de innovación informática de la Universidad Carnegie Mellon que no participó en el estudio, afirma que los autores “demuestran que los usuarios malintencionados están teniendo éxito en la reventa de ofertas corporativas con fines maliciosos”.

Hundt cree que los responsables políticos deberían exigir a las empresas de IA que desarrollen e implementen políticas de “conozca a su cliente” para verificar la identidad de un usuario. “También necesitamos marcos legales para garantizar que las empresas que crean estos modelos y brindan servicios lo hagan de manera más responsable, de una manera que mitigue los riesgos planteados por los actores maliciosos”, afirma.

Wang, por su parte, señala que investigaciones como la de su equipo son solo el comienzo cuando se trata de luchar contra los cibercriminales. “Podemos desarrollar tecnologías y proporcionar información para ayudarlos”, dice, “pero no podemos hacer nada para detener estas cosas por completo porque no tenemos los recursos”.


Author

  • Chris Stokel-Walker

    Chris Stokel-Walker es periodista freelance y colaborador de Fast Company. Es autor de “YouTubers: How YouTube Shook up TV and Created a New Generation of Stars” y de “TikTok Boom: China's Dynamite App and the Superpower Race for Social Media”.

    View all posts

Author

  • Chris Stokel-Walker

    Chris Stokel-Walker es periodista freelance y colaborador de Fast Company. Es autor de “YouTubers: How YouTube Shook up TV and Created a New Generation of Stars” y de “TikTok Boom: China's Dynamite App and the Superpower Race for Social Media”.

    View all posts

Advertisement

Sobre el autor

Chris Stokel-Walker es periodista freelance y colaborador de Fast Company. Es autor de “YouTubers: How YouTube Shook up TV and Created a New Generation of Stars” y de “TikTok Boom: China's Dynamite App and the Superpower Race for Social Media”.

ADVERTISEMENT

Advertisement

ADVERTISEMENT

Advertisement