| Tech

La IA se está utilizando en la guerra, pero no puede reemplazar el juicio humano

El éxito o el fracaso en la guerra generalmente no depende de las máquinas, sino de las personas que las utilizan.

La IA se está utilizando en la guerra, pero no puede reemplazar el juicio humano [Foto: Sasan / Middle East Images / AFP via Getty Images]

Según The Washington Post, el ejército estadounidense logró atacar 1,000 objetivos en las primeras 24 horas de su ataque a Irán, en parte gracias al uso de inteligencia artificial. El ejército ha utilizado Claude, la herramienta de IA de Anthropic, combinada con el sistema Maven de Palantir, para la selección y priorización de objetivos en tiempo real en apoyo de las operaciones de combate en Irán y Venezuela.

Si bien Claude tiene solo unos pocos años, la capacidad del ejército estadounidense para utilizarla, o cualquier otra IA, no surgió de la noche a la mañana. El uso eficaz de sistemas automatizados depende de una infraestructura extensa y personal capacitado. Solo gracias a décadas de inversión y experiencia, Estados Unidos puede utilizar la IA en la guerra hoy en día.

En mi experiencia como investigador de relaciones internacionales especializado en tecnología estratégica en Georgia Tech, y anteriormente como oficial de inteligencia en la Armada de los Estados Unidos, he constatado que los sistemas digitales son sólo tan buenos como las organizaciones que los utilizan. Algunas organizaciones desaprovechan el potencial de las tecnologías avanzadas, mientras que otras pueden compensar las deficiencias tecnológicas.

Mito y realidad en la IA militar

Las historias de ciencia ficción sobre la IA militar suelen ser engañosas. Las ideas populares sobre robots asesinos y enjambres de drones tienden a exagerar la autonomía de los sistemas de IA y a subestimar el papel de los seres humanos. El éxito, o el fracaso, en la guerra generalmente no depende de las máquinas, sino de las personas que las utilizan.

En el mundo real, la IA militar se refiere a un vasto conjunto de sistemas y tareas diferentes. Las dos categorías principales son las armas automatizadas y los sistemas de apoyo a la toma de decisiones. Los sistemas de armas automatizadas tienen cierta capacidad para seleccionar o atacar objetivos por sí mismos. Estas armas suelen ser objeto de ciencia ficción y de un considerable debate.

Los sistemas de apoyo a la toma de decisiones, en cambio, son ahora fundamentales para la mayoría de los ejércitos modernos. Se trata de aplicaciones de software que proporcionan información de inteligencia y planificación al personal humano. Muchas aplicaciones militares de la IA, incluso en las guerras actuales y recientes en Oriente Medio, se destinan a sistemas de apoyo a la toma de decisiones, no a armas. Las organizaciones de combate modernas dependen de innumerables aplicaciones digitales para el análisis de inteligencia, la planificación de campañas, la gestión de batallas, las comunicaciones, la logística, la administración y la ciberseguridad.

Claude es un ejemplo de sistema de apoyo a la toma de decisiones, no de arma. Claude está integrado en el Sistema Inteligente Maven, ampliamente utilizado por organizaciones militares, de inteligencia y policiales. Maven utiliza algoritmos de IA para identificar objetivos potenciales a partir de datos satelitales y de inteligencia, y Claude ayuda a los planificadores militares a organizar la información y decidir sobre objetivos y prioridades.

Los sistemas israelíes Lavender y Gospel, utilizados en la guerra de Gaza y en otros lugares, también son sistemas de apoyo a la toma de decisiones. Estas aplicaciones de IA proporcionan apoyo analítico y de planificación, pero en última instancia, las decisiones las toman seres humanos.

El investigador Craig Jones explica cómo el ejército estadounidense utiliza la inteligencia artificial en su ataque contra Irán y algunos de los problemas que surgen de su uso.

La larga historia de la IA militar

Las armas con cierto grado de autonomía se han utilizado en la guerra durante más de un siglo. Las minas navales del siglo XIX explotaban al contacto. Las bombas volantes alemanas de la Segunda Guerra Mundial se guiaban giroscópicamente. Los torpedos teledirigidos y los misiles de búsqueda de calor modifican su trayectoria para interceptar objetivos en movimiento. Muchos sistemas de defensa aérea, como la Cúpula de Hierro israelí y el sistema Patriot estadounidense, ofrecen desde hace tiempo modos totalmente automáticos.

Los drones robóticos se generalizaron en las guerras del siglo XXI. Estos sistemas no tripulados realizan ahora diversas tareas tediosas, peligrosas y que implican riesgos en tierra, mar, aire y órbita. Vehículos pilotados a distancia como el MQ-9 Reaper estadounidense o el Hermes 900 israelí, capaces de permanecer en el aire de forma autónoma durante horas, proporcionan una plataforma para el reconocimiento y los ataques. Los combatientes en la guerra entre Rusia y Ucrania fueron pioneros en el uso de drones con visión en primera persona como munición kamikaze. Algunos drones dependen de la IA para adquirir objetivos, ya que las interferencias electrónicas impiden el control remoto por parte de operadores humanos.

Pero los sistemas que automatizan el reconocimiento y los ataques son solo la parte más visible de la revolución de la automatización. La capacidad de ver más lejos y atacar con mayor rapidez aumenta drásticamente la carga de procesamiento de información para las organizaciones militares. Aquí es donde entran en juego los sistemas de apoyo a la toma de decisiones. Si las armas automatizadas mejoran la visión y la capacidad de ataque de un ejército, los sistemas de apoyo a la toma de decisiones potencian la inteligencia.

Los sistemas de mando y control de la Guerra Fría anticiparon los modernos sistemas de apoyo a la toma de decisiones, como el Tzayad israelí, con inteligencia artificial, para la gestión de batallas. Proyectos de investigación en automatización, como el Sistema de Entorno Terrestre Semiautomático (SAGE) de Estados Unidos en la década de 1950, impulsaron importantes innovaciones en memoria e interfaces informáticas. Durante la guerra de Vietnam, el sistema Igloo White recopiló datos de inteligencia en una computadora centralizada para coordinar los ataques aéreos estadounidenses contra las líneas de suministro norvietnamitas. El programa de computación estratégica de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) de Estados Unidos en la década de 1980 impulsó avances en semiconductores y sistemas expertos. De hecho, la financiación para la defensa fue fundamental para el auge de la IA.

Las organizaciones posibilitan la guerra automatizada

Las armas automatizadas y los sistemas de apoyo a la toma de decisiones dependen de la innovación organizativa complementaria. Desde el Campo de Batalla Electrónico de Vietnam hasta la doctrina de Batalla Aeroterrestre de finales de la Guerra Fría y los conceptos posteriores de guerra centrada en redes, las fuerzas armadas estadounidenses han desarrollado nuevas ideas y conceptos organizativos.

Resulta particularmente destacable el surgimiento de un nuevo estilo de operaciones especiales durante la guerra global estadounidense contra el terrorismo. Los sistemas de apoyo a la toma de decisiones basados ​​en IA se volvieron invaluables para localizar a terroristas, planificar incursiones para eliminarlos o capturarlos, y analizar la inteligencia recopilada en el proceso. Sistemas como Maven se volvieron esenciales para este estilo de contraterrorismo.

La impresionante estrategia bélica estadounidense, exhibida en Venezuela e Irán, es el resultado de décadas de ensayo y error. El ejército estadounidense ha perfeccionado procesos complejos para recopilar inteligencia de múltiples fuentes, analizar sistemas objetivo, evaluar opciones de ataque, coordinar operaciones conjuntas y evaluar los daños causados ​​por las bombas. La única razón por la que la IA puede utilizarse a lo largo de todo el ciclo de selección de objetivos es que innumerables personas trabajan en todo el mundo para mantenerla en funcionamiento.

La IA plantea importantes preocupaciones sobre el sesgo de automatización; es decir, la tendencia de las personas a dar una importancia excesiva a las decisiones automatizadas en la selección de objetivos militares. Pero estas preocupaciones no son nuevas. La Operación Igloo White fue frecuentemente engañada por señuelos vietnamitas. Un crucero Aegis estadounidense de última generación derribó accidentalmente un avión de pasajeros iraní en 1988. Errores de inteligencia llevaron a bombarderos furtivos estadounidenses a atacar accidentalmente la embajada china en Belgrado, Serbia, en 1999.

Muchos civiles iraquíes y afganos murieron debido a errores de análisis y sesgos culturales dentro del ejército estadounidense. Más recientemente, la evidencia sugiere que un misil de crucero Tomahawk impactó una escuela de niñas adyacente a una base naval iraní, matando a unas 175 personas, en su mayoría estudiantes. Este ataque podría haber sido resultado de una falla de inteligencia estadounidense.

La predicción automatizada requiere juicio humano

Los éxitos y fracasos de los sistemas de apoyo a la toma de decisiones en la guerra se deben más a factores organizacionales que a la tecnología. La IA puede ayudar a las organizaciones a mejorar su eficiencia, pero también puede amplificar los sesgos organizacionales. Si bien puede ser tentador culpar a Lavender por el exceso de muertes de civiles en la Franja de Gaza, es probable que las permisivas reglas de enfrentamiento israelíes tengan más peso que el sesgo de la automatización.

Como su nombre lo indica, los sistemas de apoyo a la toma de decisiones respaldan la toma de decisiones humanas. La IA no reemplaza a las personas. El personal humano sigue desempeñando un papel fundamental en el diseño, la gestión, la interpretación, la validación, la evaluación, la reparación y la protección de sus sistemas y flujos de datos. Los comandantes siguen al mando.

En términos económicos, la IA mejora la predicción, es decir, genera nuevos datos a partir de los existentes. Sin embargo, la predicción es solo una parte de la toma de decisiones. En última instancia, las personas son quienes toman las decisiones importantes sobre qué predecir y cómo utilizar las predicciones. Las personas tienen preferencias, valores y compromisos con respecto a los resultados del mundo real, algo que los sistemas de IA, por su propia naturaleza, no tienen.

En mi opinión, esto significa que el creciente uso militar de la IA está, de hecho, haciendo que los humanos sean más importantes en la guerra, no menos.

Jon R. Lindsay es profesor asociado de ciberseguridad y privacidad, y de asuntos internacionales en el Instituto Tecnológico de Georgia.

Este artículo se republica de The Conversation bajo una licencia Creative Commons. Lee el artículo original.

Author

  • The Conversation

    Es una organización de noticias sin fines de lucro e independiente, dedicada a poner el conocimiento de los expertos al servicio del bien público.

    View all posts

Author

  • The Conversation

    Es una organización de noticias sin fines de lucro e independiente, dedicada a poner el conocimiento de los expertos al servicio del bien público.

    View all posts

Sobre el autor

Es una organización de noticias sin fines de lucro e independiente, dedicada a poner el conocimiento de los expertos al servicio del bien público.