El inicio de la guerra de Irán es difícil de explicar. La versión oficial sostiene que Israel y Estados Unidos atacaron al país del Golfo Pérsico para evitar la producción de armamento nuclear. Sin embargo, el primer día del conflicto, varios misiles impactaron contra un lugar donde no debían, la escuela primaria Shajareh Tayyebeh, en la ciudad costera de Minab. En sus aulas estudiaban niñas de entre siete y doce años.
En los días siguientes se han buscado todo tipo de explicaciones a un ataque “que no tenía ningún sentido, tampoco como daño colateral”, como explica a infoLibre el teniente Marín, perteneciente al Regimiento de Transmisiones del Ejército de Tierra, un cuerpo acostumbrado a trabajar en sistemas y tecnologías de la información y de las telecomunicaciones. Y poco a poco han ido apareciendo respuestas. The Times fue uno de los primeros medios en señalar que la inteligencia artificial ya estaba participando en el conflicto a través del llamado kill chain, el sistema que conecta los datos con el disparo. “El algoritmo parece que no tomó la decisión de ‘apretar el botón’, pero sí cruza los datos de la lista de blancos y el ritmo de los ataques”, explica Marín, .
Un exoficial de inteligencia naval estadounidense, identificado como Romero, confirmaba a Univisión lo ocurrido: “El Pentágono ha integrado la inteligencia artificial en la fase inicial de la guerra con Irán. Esta tecnología agiliza la selección de objetivos estratégicos y coordina el uso de drones con una precisión sin precedentes”.
Pero la inteligencia artificial también falla. Medios como The New York Times apuntan a la desactualización de la base de datos de Project Maven, un programa cuya aplicación visible es Maven AI. Este sistema “integra en una sola interfaz la fusión de datos procedentes de satélites, drones y otros sensores, un mapa operativo con posiciones propias y enemigas, herramientas de seguimiento de activos, sistemas de priorización de información y agentes conversacionales capaces de responder consultas en lenguaje natural sobre el campo de batalla”, explica Óscar Ruiz, analista en seguridad e industria militar.
Shajareh Tayyebeh fue un complejo naval de la Guardia Revolucionaria que hace una década, en 2016, se transformó en una escuela de primaria. Pasó de ser un objetivo militar a ser un lugar protegido por el IV Convenio de Ginebra. Sin embargo, todo apunta a que en alguna de las bases de datos y capas cartográficas utilizadas seguía etiquetado como objetivo.
“Un error relativamente habitual”, recuerda el coronel Rubio, experto en Seguridad Global y Defensa y autor de libros como La guerra de los robots o Guerra SA, pero que “se hubiera corregido mediante verificación manual” con personal de inteligencia sobre la zona.
Un reportaje de Anadolu Agency explica que en las primeras 24 horas de la operación Furia Épica las fuerzas estadounidenses atacaron más de 1.000 objetivos con ayuda de sistemas diseñados para analizar grandes volúmenes de datos de inteligencia y sugerir posibles puntos de impacto. El ritmo —en torno a 42 objetivos propuestos por hora— ha llevado a varios analistas a cuestionar si la velocidad de los sistemas automatizados no está superando la capacidad humana de verificar cada blanco con rigor.
“Comprobar tal cantidad de datos llevaría semanas”, aseguran expertos en defensa y análisis de datos. Por eso, el uso de la IA para acortar tiempos sin la supervisión humana habría provocado un error grave. La duda ahora es si hay —o habrá— más archivos sin actualizar.
El jefe del Mando Central estadounidense, el vicealmirante Brad Cooper, se ha esforzado por marcar una línea roja clara. “Los humanos siempre tomarán las decisiones finales sobre qué disparar, qué no disparar y cuándo hacerlo”, y las herramientas de IA “pueden convertir procesos que solían tomar horas, e incluso días, en segundos”. Pero el botón todavía lo sigue apretando un humano al que, como se ha comprobado, la información puede llegarle sesgada o con errores.
Maven AI: el sistema operativo de la guerra
Detrás de Maven Smart System (MSS) está Palantir, una empresa especializada en el desarrollo de software de análisis de macrodatos que trabaja para las principales agencias del Gobierno de Estados Unidos, como la CIA o el FBI.
Palantir, fundada por el creador de PayPal, Peter Thiel, desarrolló Maven AI como una evolución natural del Project Maven que el Pentágono lanzó en 2017. Ahora esta tecnología pretende convertirse en el “sistema operativo para las guerras”, como asegura su creador. De hecho, Palantir ha firmado acuerdos con Reino Unido y con la OTAN para implementar MSS.
Maven AI fusiona en una sola interfaz imágenes de satélite, vídeo de drones, datos de radares, interceptaciones de comunicaciones y reportes de inteligencia humana. Sobre ese volumen de información, el sistema no solo muestra iconos en un mapa: genera y prioriza listas de objetivos, calcula coordenadas, propone qué armas usar y, cada vez más, simula campañas completas. Como si la guerra fuese un videojuego. "Esto banaliza la guerra y puede tener graves consecuencias en el futuro", coinciden los militares Marín y Rubio.
El analista de inversiones Danny Vena pone un ejemplo de cómo funciona la gestión de los datos de Palantir: “Alguien compró un billete de avión de ida, alquiló un piso, está haciendo grandes reintegros de una cuenta bancaria en el extranjero, hace repetidas llamadas a números de una lista de vigilancia en Oriente Medio, alquila un gran camión, hace viajes a los principales parques temáticos. Si se mira cualquiera de esas cosas por separado, no parece gran cosa”, pero al unir los puntos podría ser un terrorista. Y esa confirmación es la que debe hacer un humano, como recordaba Rubio.
Un dilema moral
Alex Karp, CEO de Palantir, fue muy explícito cuando le preguntaron para qué servía MSS: “para matar gente”. Y es precisamente por esa declaración por la que la compañía Anthropic, cuyo modelo de IA Claude está integrado en Maven AI, se negó a proveer servicios a la Administración Trump.
Su CEO, Dario Amodei, defendía la necesidad de límites claros para evitar que su modelo se convierta en el cerebro de un sistema de armas completamente automático. Sin embargo, mientras se cruzaban los comunicados, Maven seguía funcionando con Claude a la espera de “integrarlo en el futuro con otros modelos de lenguaje de gran tamaño”, como quiere Karp. Esto ha provocado que la compañía de Amodei sea considerada por Donald Trump como una “Radical Left AI company” por negarse a eliminar salvaguardas que impiden alimentar armas totalmente autónomas o hacer vigilancia masiva de ciudadanos.
China también se ha mostrado crítica y apoya la misma idea que Amodei, de que el uso de inteligencia artificial en la selección de objetivos y en ataques preventivos “erosiona el control humano” y abre la puerta a que los algoritmos tomen decisiones de vida o muerte sin supervisión. Pekín reclama reglas globales más estrictas sobre la IA militar y, en particular, limitar el desarrollo de armas autónomas letales como si de 'Terminator' se tratase.
Así pues, esta 'guerra moderna' está cambiando la idea de qué es un objetivo militar. La Guardia Revolucionaria iraní ha reivindicado varios ataques contra centros de datos en Emiratos Árabes Unidos y Baréin, alegando que son infraestructuras clave para el sistema de inteligencia que utilizan sus enemigos. Expertos como Óscar Ruiz advierten de que los centros de datos podrían convertirse en objetivos habituales en conflictos futuros.
Guerra sin control
Dentro del propio Ejército estadounidense hay voces que piden frenar el entusiasmo. En un ensayo de la Air University, varios coroneles de la Fuerza Aérea advertían ya en 2021 del salto cualitativo que implican los sistemas autónomos.
"Los sistemas autónomos tendrían que distinguir entre civiles y combatientes y respetar los principios de proporcionalidad y precaución. Tendrían que tomar decisiones informadas y llegar a una conclusión sensata; en otras palabras, tendrían que usar su propio juicio. […] Con el aprendizaje automático no hay garantía de que los puntos de decisión puedan explicarse con claridad ni de que podamos extraer lecciones de los errores", rezaba el texto.
Un análisis del Modern War Institute de West Point introduce otra preocupación: la responsabilidad legal: "Los comandantes seguirán siendo responsables de demostrar necesidad militar y proporcionalidad. Si no pueden explicar cómo ha llegado la IA a una recomendación de ataque, el problema deja de ser técnico: se convierte en un problema legal insalvable".
Intelectuales como Yuval Noah Harari llevan años advirtiendo de que la IA puede contribuir a provocar muertes masivas como en el caso de los rohingya en Myanmar, "algoritmos de Facebook, diseñados para maximizar la interacción, impulsaron teorías conspirativas y odio, y eso ayudó a desencadenar una campaña de limpieza étnica. Incluso si los algoritmos tienen solo un 1% de responsabilidad, es la primera vez en la historia que decisiones tomadas por una IA sobre qué información difundir han contribuido a un gran cambio histórico", decía en La Vanguardia.
Y como si hablara del caso iraní, Harari aseguraba en Nexus que “un dictador paranoico podría otorgar un poder ilimitado a una IA falible, incluido el de lanzar un ataque nuclear. Si el dictador confía más en su IA que en su ministro de Defensa, ¿no tendría sentido que fuera dicha IA la encargada de supervisar el uso de las armas más poderosas del país?”
El inicio de la guerra de Irán es difícil de explicar. La versión oficial sostiene que Israel y Estados Unidos atacaron al país del Golfo Pérsico para evitar la producción de armamento nuclear. Sin embargo, el primer día del conflicto, varios misiles impactaron contra un lugar donde no debían, la escuela primaria Shajareh Tayyebeh, en la ciudad costera de Minab. En sus aulas estudiaban niñas de entre siete y doce años.