[Foto: rost9/Adobe Stock]
La inteligencia artificial (IA) está aprendiendo rápidamente a diseñar y ejecutar experimentos biológicos de forma autónoma, pero los sistemas destinados a gestionar esas capacidades tienen dificultades para seguir el ritmo.
La empresa de IA OpenAI y la empresa de biotecnología Ginkgo Bioworks anunciaron en febrero de 2026 que el modelo insignia de OpenAI, GPT-5, había diseñado y ejecutado de forma autónoma 36,000 experimentos biológicos. Esto se logró mediante un laboratorio robótico en la nube, una instalación donde equipos automatizados controlados remotamente por ordenadores realizan experimentos. El modelo de IA propuso los diseños de estudio, los robots los llevaron a cabo y retroalimentaron el modelo con los datos para la siguiente ronda. Los humanos definieron el objetivo, y las máquinas realizaron gran parte del trabajo en el laboratorio, reduciendo el coste de producción de la proteína deseada en un 40%.
La biología programable
Esto es biología programable: diseñar componentes biológicos en un ordenador y construirlos en el mundo físico, con la inteligencia artificial cerrando el ciclo.
Durante décadas, la biología se centró principalmente en la comprensión, partiendo de la observación. Los científicos secuenciaron los genomas de los organismos para catalogar todo su ADN y así comprender cómo los genes codifican las proteínas que llevan a cabo las funciones vitales. La invención de herramientas como CRISPR permitió a los científicos editar ese ADN con fines específicos, como la desactivación de un gen relacionado con una enfermedad. La IA está impulsando ahora una tercera fase, en la que los ordenadores pueden diseñar sistemas biológicos y, a la vez, probarlos rápidamente.
El proceso se asemeja menos al trabajo de laboratorio tradicional y más a la ingeniería: diseñar, construir, probar, aprender y repetir. Mientras que un experimento tradicional podría poner a prueba una sola hipótesis, la biología programable impulsada por IA explora miles de variaciones de diseño en paralelo, iterando de la misma manera que un ingeniero perfecciona un prototipo.
Como científico de datos especializado en genómica y bioseguridad, investigo cómo la IA está transformando la investigación biológica y qué medidas de seguridad exige. Las medidas y regulaciones de seguridad actuales no se han adaptado a estas capacidades, y la brecha entre lo que la IA puede hacer en biología y lo que los sistemas de gobernanza están preparados para gestionar es cada vez mayor.
Lo que la IA hace posible
El ejemplo más claro de cómo los investigadores están utilizando la IA para automatizar la investigación es el diseño de proteínas acelerado por IA.
Las proteínas son las máquinas moleculares que llevan a cabo la mayoría de las funciones en las células vivas. El diseño de nuevas proteínas ha requerido tradicionalmente años de ensayo y error, ya que incluso pequeños cambios en la secuencia de una proteína pueden alterar su forma y función de maneras impredecibles.
Los modelos de lenguaje de proteínas, que son sistemas de IA entrenados con millones de secuencias de proteínas naturales, pueden predecir rápidamente cómo las mutaciones alterarán el comportamiento de una proteína o diseñar nuevas proteínas. Estos modelos de IA están diseñando posibles nuevos fármacos y acelerando el desarrollo de vacunas.
En combinación con laboratorios automatizados, estos modelos crean ciclos intensivos de experimentación y revisión, probando miles de variaciones en días en lugar de los meses o años que necesitaría un equipo humano.
Una ingeniería de proteínas más rápida podría traducirse en respuestas más rápidas a las infecciones emergentes y en medicamentos más baratos.
El problema del doble uso
Los investigadores han expresado su preocupación por la posibilidad de que estas mismas herramientas de IA se utilicen indebidamente, un problema conocido como el problema del doble uso: las tecnologías desarrolladas con fines beneficiosos también pueden reutilizarse para causar daño.
Por ejemplo, los investigadores han descubierto que los modelos de IA integrados con laboratorios automatizados pueden optimizar la propagación de un virus, incluso sin entrenamiento especializado. Los científicos han desarrollado una herramienta de puntuación de riesgo para evaluar cómo la IA podría modificar las capacidades de un virus, como alterar las especies que infecta o ayudarlo a evadir el sistema inmunitario.
Los modelos de IA actuales son capaces de guiar a los usuarios a través de los pasos técnicos para recuperar virus vivos a partir de ADN sintético. Los investigadores han determinado que la IA podría reducir las barreras en múltiples etapas del proceso de desarrollo de un arma biológica, y que la supervisión actual no aborda adecuadamente este riesgo.
Riesgos derivados de la bioinformática
Científicos experimentados ya utilizan la IA para planificar y diseñar experimentos biológicos. La cuestión de si la IA puede ayudar a personas con formación biológica limitada a realizar trabajos de laboratorio peligrosos es objeto de intensa investigación.
Dos estudios recientes han llegado a conclusiones diferentes.
Un estudio realizado por la empresa de IA Scale AI y la organización sin fines de lucro de bioseguridad SecureBio descubrió que cuando personas con poca experiencia en biología tuvieron acceso a grandes modelos de lenguaje, el tipo de IA que impulsa herramientas como ChatGPT, pudieron completar tareas relacionadas con la bioseguridad, como la resolución de problemas en protocolos complejos de laboratorio de virología, con una precisión cuatro veces mayor. En algunas áreas, estos principiantes superaron a los expertos capacitados. Alrededor del 90% de estos principiantes reportaron poca dificultad para que los modelos proporcionaran información biológica riesgosa, como instrucciones detalladas para trabajar con patógenos peligrosos, a pesar de los filtros de seguridad integrados diseñados para bloquear dichas salidas.
Obstáculos en los resultados
En contraste, un estudio liderado por Active Site, una organización de investigación sin fines de lucro que estudia el uso de la IA en biología sintética, reveló que la asistencia de la IA no produjo diferencias significativas en la capacidad de los principiantes para completar el complejo proceso de producción de un virus en un laboratorio de bioseguridad. Sin embargo, el grupo asistido por IA tuvo mayor éxito en la mayoría de las tareas y completó algunos pasos más rápidamente, especialmente en el cultivo de células en el laboratorio.
El trabajo práctico en el laboratorio ha sido tradicionalmente un obstáculo para convertir los diseños en resultados. Incluso un plan de estudio brillante sigue dependiendo de la habilidad de personas para su ejecución. Sin embargo, esto podría cambiar, ya que los laboratorios en la nube y la automatización robótica se vuelven más económicos y accesibles, lo que permite a los investigadores enviar diseños experimentales generados por IA a instalaciones remotas para su ejecución.
Respuesta a los riesgos biológicos impulsados por la IA
Los sistemas de IA ahora pueden realizar experimentos de forma autónoma y a gran escala, pero las regulaciones existentes no fueron diseñadas para ello. Las normas que rigen la investigación biológica no contemplan la automatización impulsada por la IA, y las normas que rigen la IA no abordan específicamente su uso en biología.
En Estados Unidos, la administración Biden emitió en 2023 una orden ejecutiva sobre seguridad de la IA que incluía disposiciones de bioseguridad, pero la administración Trump la revocó. El análisis del ADN sintético producido por proveedores comerciales para garantizar que no pueda utilizarse indebidamente para crear patógenos o toxinas sigue siendo mayoritariamente voluntario. Un proyecto de ley bipartidista presentado en 2026 para exigir el análisis del ADN aún no aborda las secuencias diseñadas por IA que eluden los métodos de detección actuales.
Evaluaciones de seguridad
La Convención sobre Armas Biológicas de 1975, un tratado internacional que prohíbe la producción y el uso de armas biológicas, no contiene disposiciones relativas a la IA. Tanto el Instituto de Seguridad de la IA del Reino Unido como la Comisión de Seguridad Nacional de Estados Unidos sobre Biotecnología Emergente han pedido una acción gubernamental coordinada.
Las evaluaciones de seguridad que realizan los laboratorios de IA antes de lanzar nuevos modelos suelen ser opacas e inadecuadas para reflejar el riesgo real. Los investigadores han estimado que incluso mejoras modestas en la capacidad de un modelo de IA para planificar experimentos relacionados con patógenos podrían traducirse en miles de muertes adicionales por bioterrorismo al año. Aún no está claro cuándo estas capacidades alcanzarán umbrales críticos.
La Iniciativa contra la Amenaza Nuclear ha propuesto un marco de acceso controlado para herramientas de IA biológica, que relaciona el uso de cada herramienta con el nivel de riesgo del modelo, en lugar de imponer restricciones generales. El Centro RAND de IA, Seguridad y Tecnología describió una serie de medidas que los investigadores podrían adoptar para mejorar la bioseguridad, incluyendo una mejor selección de modelos de síntesis de ADN y evaluaciones previas a su lanzamiento. Los investigadores también han argumentado que los datos biológicos en sí mismos necesitan gobernanza, especialmente los datos genómicos, que podrían entrenar modelos con capacidades peligrosas.
La necesidad de controlar a la IA
Algunas empresas de IA han comenzado a imponer voluntariamente sus propias medidas de seguridad. Anthropic activó su nivel de seguridad más alto cuando lanzó su modelo más avanzado a mediados de 2025. Al mismo tiempo, OpenAI actualizó su Marco de Preparación, revisando los umbrales de riesgo biológico que un modelo puede presentar antes de que se requieran medidas de seguridad adicionales. Pero estas son medidas voluntarias y específicas de cada empresa. El director ejecutivo de Anthropic, Dario Amodei, escribió que el ritmo del desarrollo de la IA pronto podría superar la capacidad de cualquier empresa para evaluar el riesgo de un modelo determinado.
Cuando se utiliza en un entorno controlado, la IA puede ayudar a los científicos a alcanzar rápidamente sus objetivos de investigación. La cuestión de qué sucede cuando estas mismas capacidades operan fuera de esos controles aún no ha sido resuelta por las políticas vigentes. Una reacción exagerada podría provocar que el talento y la inversión se desvíen hacia otros ámbitos, mientras que la tecnología continúa avanzando. Una reacción insuficiente podría permitir que los riesgos de dicha tecnología se aprovechen para causar daños reales.
Stephen D. Turner es profesor asociado de Ciencia de Datos en la Universidad de Virginia.
Este artículo fue publicado originalmente en The Conversation.
![[Fotos: akiyoko/Adobe Stock, Petra/Adobe Stock]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/04/13153114/abejas-extincion-Fast-Company-Mexico-Cortesia.webp)
![[Imagen impulsada por IA]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/04/13153808/ChatGPT-Image-13-abr-2026-15_25_15.png)
![[Imagen: Adobe Stock]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/04/13094639/p-91522193-phrases-that-undermine-your-authority-e1776095257186.webp)