La guerra de la IA: Así es como EU utiliza la inteligencia artificial durante ataques contra Irán
Las fuerzas militares de Estados Unidos están recurriendo a una variedad de herramientas de inteligencia artificial en guerra para gestionar rápidamente enormes cantidades de datos para las operaciones militares contra Irán, según el Comando Central de Estados Unidos, destacando el creciente papel de la tecnología emergente en la guerra.
Desde el inicio de los ataques militares la semana pasada, Estados Unidos ha alcanzado más de 2 mil objetivos, incluyendo mil en las primeras 24 horas. El almirante Brad Cooper, jefe del Comando Central, ha descrito este esfuerzo como casi el doble de envergadura que el ataque estadounidense de “conmoción y pavor” contra Irak en 2003.
En la campaña de Irán, en la que murió Ali Jamenei, la tecnología de inteligencia artificial ha desempeñado un papel fundamental al respaldar la selección inicial de los datos entrantes, lo que permite a los analistas humanos centrarse en el análisis y la verificación de nivel superior, según el capitán Timothy Hawkins, portavoz del Comando Central.
“Centcom utiliza diversas herramientas de IA, y eso es precisamente lo que son: herramientas, para asistir a expertos humanos en un proceso riguroso, alineado con la política, la doctrina militar y la ley de Estados Unidos”, declaró Hawkins en una entrevista con Bloomberg News. Se negó a identificar las herramientas ni las empresas que las proporcionan al ejército.
La guerra con Irán, en la que se derribó un buque tras el ataque con un torpedo MK-48, refuerza el creciente debate global sobre quién controla el futuro de la IA como herramienta de guerra, incluyendo si esta tecnología en rápida evolución puede utilizarse de forma legal. Es el núcleo de una disputa crucial que enfrenta a los funcionarios de defensa estadounidenses con Anthropic PBC, una de las empresas de IA más prometedoras, cuyos modelos se utilizan en la nube clasificada del Pentágono.
Tras no llegar a un acuerdo con Anthropic sobre los términos que rigen el uso de su tecnología de IA, el secretario de Defensa de Estados Unidos, Pete Hegseth, declaró la semana pasada que la empresa representaba un riesgo para la cadena de suministro y dio a los contratistas militares seis meses para dejar de trabajar con ella. El presidente Donald Trump también ordenó a las agencias federales que dejaran de trabajar con Anthropic, describiéndola como una “empresa de IA de izquierda radical y fuera de control”.
El director ejecutivo de Anthropic, Dario Amodei, y funcionarios de defensa han reanudado las discusiones después del fracaso de las conversaciones la semana pasada, lo que aumenta la posibilidad de que el Pentágono pueda llegar a un acuerdo con la compañía y evitar las sanciones amenazadas por Hegseth.
Aunque Amodei ha expresado su alarma por el uso de IA en armas completamente autónomas antes de que la tecnología sea confiable y no quiere que las herramientas de su empresa se utilicen para espiar a ciudadanos estadounidenses en masa, sí apoya trabajar en operaciones militares letales de Estados Unidos que respeten esas líneas rojas.
Entre la tecnología de inteligencia artificial utilizada en la campaña contra Irán se encuentra Maven Smart System, una plataforma digital de control de misiones, según personas familiarizadas con las operaciones estadounidenses, que hablaron bajo condición de anonimato para poder hablar de información confidencial. El sistema, desarrollado por Palantir Technologies Inc., se alimenta de más de 150 fuentes de datos diferentes, según declaraciones públicas previas de oficiales militares estadounidenses.
Ese sistema también está utilizando la herramienta de inteligencia artificial Claude de Anthropic entre los grandes modelos de lenguaje instalados en el sistema, según las personas, quienes dijeron que Claude está funcionando bien y se ha vuelto central en las operaciones estadounidenses contra Irán y para acelerar los esfuerzos de inteligencia artificial de Maven.
Los portavoces de Anthropic declinaron hacer comentarios, mientras que los representantes de Palantir no respondieron de inmediato a las solicitudes de comentarios. El Washington Post informó previamente sobre el uso del Sistema Inteligente Maven y Claude por parte del ejército estadounidense en operaciones militares.
Hawkins afirmó que la inteligencia artificial ayuda a los analistas a reducir sus enfoques, generando los llamados puntos de interés y ayudando al personal a tomar decisiones inteligentes en las operaciones en Irán. La IA también ayuda a extraer datos de los sistemas y a organizar la información para mayor claridad, añadió.
En resumen, estas herramientas ayudan a los líderes —humanos— a tomar decisiones más inteligentes y con mayor rapidez. No los reemplazan ni toman decisiones sobre objetivos —dijo Hawkins, y añadió que la selección de objetivos depende de un proceso legal muy específico y riguroso que involucra a comandantes y líderes—.
Algunas organizaciones, como Stop Killer Robots, una coalición de 270 grupos de derechos humanos, argumentan que los sistemas de apoyo a la toma de decisiones basados en IA reducen la separación entre recomendar y ejecutar un ataque a una línea “peligrosamente delgada” y corren el riesgo de introducir un sesgo de automatización, cuando los humanos confían demasiado en los resultados producidos por las máquinas.
Centcom investiga posibles incidentes que dañaron a civiles tras informes de que un ataque contra una escuela primaria femenina causó la muerte de más de 160 personas. Aún no se sabe con certeza quién fue el responsable, y no hay indicios de si AI intervino.
“Nos tomamos muy en serio estos informes y los estamos investigando”, declaró Hawkins. “La protección de los civiles es de suma importancia, y seguiremos tomando todas las precauciones posibles para minimizar el riesgo de daños involuntarios. A diferencia del régimen iraní, nunca hemos atacado ni atacaremos a civiles”.
