[Imagen: Adobe Stock]
Para una empresa con una de las funciones más importantes en el ámbito de la seguridad de la información, evaluar los riesgos y las oportunidades de la inteligencia artificial puede parecer menos un ejercicio analítico y más bien un lanzamiento de un dado de 20 caras.
Esto se debe a que un gestor de contraseñas (que de por sí ya debe defender las credenciales más valiosas de un cliente tanto de atacantes externos como de la propia negligencia del cliente) ahora tiene que lidiar con la inteligencia artificial en múltiples frentes.
La inteligencia artificial puede ayudar a una empresa de gestión de contraseñas a desarrollar código y detectar vulnerabilidades con mayor rapidez; sin embargo, también podría permitir a los clientes lanzar aplicaciones descuidadas —codificadas de manera improvisada o “por intuición”— que dejan las contraseñas expuestas. Y si bien los agentes de inteligencia artificial prometen ejecutar tareas complejas con una concentración absoluta, las “alucinaciones” o los ataques de inyección de prompts podrían hacer que cometan errores, tal como lo haría cualquier ser humano cansado o distraído, solo que a mayor velocidad y a gran escala.
“Hay que empezar ayudando a los clientes a comprender cuál es su ‘radio de impacto’ y cuán generalizado resulta este desafío dentro de su propio ecosistema”, afirma Nancy Wang, directora de tecnología de 1Password.
Evitar que los clientes se metan en problemas por su propia cuenta
La estrategia de inteligencia artificial de esta empresa con sede en Toronto comienza, ante todo, intentando evitar que sus clientes corporativos se vean envueltos en problemas. Para ello, utiliza un agente instalado en el propio dispositivo del usuario para auditar el uso de modelos de IA y señalar aquellos riesgos que la dirección del cliente consideraría importante conocer.
“Oiga, señora CISO: ¿sabía que sus desarrolladores están utilizando el modelo DeepSeek en esta rama de su base de código?”, comenta Wang en referencia a este modelo de lenguaje grande (LLM) de origen chino, el cual ha suscitado críticas debido a los riesgos de seguridad que conlleva. “Y eso es algo que ha sucedido en la realidad”.
Wang añade que, a raíz de ello, se mantuvieron “ciertas conversaciones sobre las mejores prácticas de seguridad” con los desarrolladores en cuestión.
El análisis automatizado realizado por dicho agente —el cual también verifica si el software instalado cuenta con las últimas actualizaciones, entre otros indicadores del estado de salud del dispositivo— ayuda a 1Password a detectar prácticas descuidadas en la gestión de contraseñas.
“Cuando descubrimos credenciales desprotegidas y sin cifrar almacenadas en el disco duro —gracias a que contamos con nuestro propio agente instalado en el dispositivo—, podemos proceder a trasladar dichas credenciales a nuestra bóveda segura y cifrada”, explica Wang.
1Password, al igual que otros gestores de contraseñas, cifra las credenciales guardadas de extremo a extremo, lo que impide a la propia empresa visualizar las contraseñas almacenadas. Wang añade que su software está diseñado de tal manera que ningún agente de IA pueda acceder al texto plano de una contraseña, ni siquiera en el preciso instante en que esta se autocompleta en un sitio web.
Las empresas también pueden indicar a sus empleados que instalen el agente Device Trust de 1Password en sus dispositivos personales, abordando así un vector de ataque frecuente y a menudo exitoso. Sin embargo, el cumplimiento de esta medida puede ser irregular, al igual que ocurre con las cuentas familiares de 1Password —incluidas en los planes empresariales— que a menudo quedan sin utilizar en las computadoras de los empleados.
Evitar que los agentes de inteligencia artificial se desvíen
Los agentes de IA pueden automatizar tareas empresariales rutinarias, pero, debido a su naturaleza no determinista, requieren una supervisión sistemática para garantizar que mantengan el enfoque. Wang califica esto como una “oportunidad de campo virgen” para que 1Password aprenda a gran escala mediante el análisis del comportamiento de los agentes.
“¿Cuál fue la instrucción (prompt)? ¿Qué hizo el agente con esa instrucción? ¿Cuál fue el resultado de la instrucción?”, plantea. Los archivos de registro resultantes “servirán entonces como mecanismo de retroalimentación y aprendizaje tanto para el agente como para el modelo”.
En febrero, 1Password anunció un referente para evaluar el comportamiento de los agentes de IA: el índice Security Comprehension and Awareness Measure (o SCAM), y publicó su código bajo una licencia de código abierto. “Estamos enseñando a un agente a reconocer qué es un enlace de phishing y qué constituye un manejo inseguro de credenciales”, afirma Wang. Ella considera que los agentes, al ser “entidades sin estado” (stateless beings), no pueden gestionarse como si fueran seres humanos.
“Necesitamos nuevos estándares de identidad específicos para los agentes, estándares que tengan en cuenta el contexto”, añade Wang. “Es decir: para qué fue creado ese agente, qué está haciendo en este momento y también la desviación que pueda existir entre su actividad actual y su propósito original”.
Y, además: 1Password está estudiando cómo los desarrolladores y usuarios de IA integran la plataforma, así como desarrollando conexiones seguras para las aplicaciones de inteligencia artificial; actualmente, esto permite que las herramientas de agentes de Anthropic y OpenAI lean el contenido de las bóvedas de 1Password y, en el futuro, que también puedan escribir datos en ellas.
La interfaz de línea de comandos (CLI) de 1Password —cuya existencia probablemente desconocen la mayoría de los usuarios sin conocimientos técnicos— ha resultado ser sorprendentemente popular entre aquellas personas que pagan por sus propias cuentas.
“El uso de nuestro producto CLI —que constituye nuestra oferta para desarrolladores con mayor trayectoria— se ha multiplicado por 2.5”, señala Wang, destacando que el mayor crecimiento proviene de los usuarios con planes individuales y familiares.
Su hipótesis es la siguiente: “existe un impulso favorable —una especie de ‘viento de cola’— generado por la tendencia de la programación por intuición (o vibe coding) que está impulsando este aumento en el uso”.
Poniendo la IA a trabajar en el propio 1Password
Esta empresa, al igual que tantas otras, está aprovechando la IA para acelerar el desarrollo de su software; sin embargo, la programación por intuición no forma parte de este panorama.
1Password ya ha implementado modelos de programación basados en IA —tales como Cursor, GitHub Copilot y Claude Code—, comenzando por someter su trabajo a la supervisión humana. “Tú introduces la instrucción y la IA genera el código”, comenta ella. “Pero el ser humano sigue validando el resultado y creando los marcos de prueba”.
Wang cita un éxito temprano: un proyecto de refactorización destinado a extraer servicios que hasta entonces se ejecutaban a través de una única base de datos MySQL.
“¿Realmente podemos utilizar un agente para ayudarnos a acelerar el proceso de refactorización?”, recuerda ella. “Y la respuesta fue un rotundo sí”, logrando completar el trabajo en cuatro semanas en lugar de los cuatro a cinco meses que ella estimaba que habrían necesitado los ingenieros humanos.
Sin embargo, 1Password avanza ahora hacia la realización de pruebas automatizadas para esta generación de código automatizada. “Tenemos ciclos completos de agentes ejecutándose en segundo plano”, afirma Wang. “Hemos configurado un entorno de pruebas para cada agente de programación; de este modo, una vez que supera la evaluación de dicho entorno, procede a integrar las solicitudes de fusión directamente en el propio repositorio de código”.
El análisis de código mediante inteligencia artificial en busca de vulnerabilidades resulta especialmente prometedor, tal como se observa en iniciativas como el Proyecto Glasswing de Anthropic y el modelo Mythos, desarrollado a partir de este.
“La tarea de detección de vulnerabilidades se acelerará enormemente gracias a herramientas como Glasswing”, señala ella. No obstante, esto solo generará más trabajo para los desarrolladores —ya sean humanos o IA—: “¿Cómo mitigamos esas vulnerabilidades? ¿Cómo nos defendemos de ellas?”.
Esto lleva a Wang a una conclusión ambivalente: “La experiencia con la IA ha sido desigual, precisamente porque el trabajo implicado ha resultado sumamente complejo y técnico”.
![[Foto: Francesco Carta fotógrafo/Getty Images]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/04/24113427/p-1-91530836-over-a-third-of-men-blame-womens-behavior-on-hormones.webp)
![[Imagen: Cortesía]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/04/24094246/mundial-2026-visa-arte-cesar-canseco.jpg)
![[Imagen generada con IA]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/04/23132557/Copilot_20260424_032543.png)