Según un informe reciente de la empresa de ciberseguridad Arkose Labs, los delitos cibernéticos impulsados por inteligencia artificial (IA) están en aumento, lo que permite a los hackers acelerar sus ataques y hacer que el fraude automatizado sea más parecido al humano y más difícil de detectar que nunca.
Según Arkose y otros en la industria, una de las mejores defensas es usar más IA. Pero solo una de cada cinco empresas informó estar “muy bien preparada” para implementar su propia IA para defenderse de los ciberataques, según el informe, a pesar de que 88% dice que ha visto “un aumento significativo en los ataques de bots impulsados por IA” en los últimos dos años.
Los hackers están utilizando bots para apoderarse de cuentas legítimas en empresas objetivo y para crear numerosas cuentas falsas, para aprovechar los bonos de registro, según el informe. Y algunos bots incluso han comenzado a apuntar a grandes sistemas de modelos de lenguaje. Están enviando sus propios mensajes a la IA para extraer datos para entrenar sus propios modelos o incluso retransmitiendo mensajes en nombre de sus propios clientes, vendiendo efectivamente sus propias suscripciones a servicios de IA sin autorización.
Otros estudios han descubierto recientemente que la IA generativa se puede utilizar para automatizar los ataques de phishing y de ingeniería social. Un informe reciente de Morgan Stanley señaló que la tecnología se puede utilizar para crear mensajes de phishing más específicos con mayor rapidez que los humanos, lo que significa que los ataques no solo se pueden lanzar más rápidamente, sino que pueden ser más efectivos. Algunos algoritmos también pueden hacer que la IA sea más hábil para adivinar contraseñas, según el informe.
Combatiendo fuego con fuego
Todo esto ha llevado a empresas de ciberseguridad como Arkose Labs a desarrollar una nueva tecnología diseñada específicamente para frustrar los bots modernos. Aproximadamente tres de cada cinco organizaciones creen que la IA es esencial para la respuesta a las amenazas de seguridad, según un informe de Capgemini publicado el martes.
“El uso de IA y Gen AI ha demostrado hasta ahora ser un arma de doble filo”, dijo Marco Pereira, director global de ciberseguridad, servicios de infraestructura en la nube, en Capgemini, en un comunicado. “Si bien presenta riesgos sin precedentes, las organizaciones confían cada vez más en la IA para una detección más rápida y precisa de los incidentes cibernéticos”.
Pero los ataques basados en IA siguen siendo un desafío creciente y, en muchos casos, los hackers pueden tener ventaja a la hora de aprovechar la tecnología. “Las empresas operan en una economía de IA en la que los actores maliciosos aprovechan la tecnología para realizar ataques con un alto retorno de la inversión, mientras que las empresas legítimas se quedan atrás debido a obstáculos internos como la gobernanza y los procesos de aprobación”, dijo el director financiero de Arkose Labs, Frank Teruel, en un comunicado.
Mantener segura la propia IA generativa también es un negocio cada vez más importante. Prompt Security, que ayuda a las empresas a evitar fugas de datos y contenido dañino mientras utilizan IA generativa, anunció el miércoles que había recaudado 18 millones de dólares en una ronda de financiación de Serie A.