Así usa Estados Unidos la inteligencia artificial Claude de Anthropic en la guerra con Irán

La inteligencia artificial ya forma parte de la infraestructura militar de Estados Unidos. En medio de la escalada del conflicto con Irán, el modelo Claude, desarrollado por Anthropic, ha sido utilizado por el Departamento de Defensa como herramienta de análisis estratégico.

No se trata de un sistema que controle misiles o active ataques de manera autónoma. Claude funciona como un motor de procesamiento masivo de información. Su tarea es ordenar datos, resumir reportes clasificados y detectar patrones que podrían pasar desapercibidos para equipos humanos bajo presión.

Anthropic fue fundada en 2021 por antiguos investigadores de OpenAI. Su director ejecutivo es Dario Amodei, quien ha defendido públicamente la necesidad de desarrollar inteligencia artificial con límites técnicos claros. La empresa promueve un modelo basado en salvaguardas que restringen usos como la vigilancia masiva o el control directo de armas.

Aun así, el gobierno estadounidense integró Claude en sistemas de apoyo a la inteligencia militar. Según reportes de The Wall Street Journal, el modelo fue empleado para analizar información previa a operaciones aéreas vinculadas al conflicto con Irán.

Te puede interesar: Anthropic vs Trump: lo que debes saber sobre la disputa que puede cambiar la industría de la IA

Su función principal consiste en cruzar grandes volúmenes de datos. Puede revisar informes satelitales, comunicaciones interceptadas y antecedentes geopolíticos en cuestión de segundos. Después genera resúmenes estructurados que sirven como base para decisiones humanas.

No sustituye a los mandos militares. Pero acelera el proceso.

La controversia aumentó cuando el presidente Donald Trump ordenó suspender el uso de tecnología de Anthropic en agencias federales. La decisión se produjo tras desacuerdos sobre el alcance que debía tener la IA en operaciones de defensa.

Sin embargo, la orden incluyó un periodo de transición. Eso permitió al Pentágono seguir utilizando el sistema mientras busca alternativas tecnológicas.

Una IA que analiza, no dispara

Claude pertenece a la categoría de modelos de lenguaje de gran escala. Está entrenado con enormes volúmenes de texto y aprende a identificar relaciones complejas entre conceptos. En el ámbito militar, eso se traduce en una herramienta capaz de sintetizar inteligencia dispersa y generar evaluaciones rápidas.

Por ejemplo, puede detectar conexiones logísticas entre actores, anticipar posibles movimientos estratégicos o señalar inconsistencias en reportes de campo. Esa capacidad resulta valiosa en conflictos donde la rapidez es determinante.

Anthropic sostiene que su modelo no está diseñado para operar armas ni para ejecutar acciones letales. La supervisión humana sigue siendo obligatoria en cada fase operativa.

A pesar de esas limitaciones técnicas, el uso de IA en la guerra abre un debate profundo. La automatización del análisis reduce tiempos y aumenta eficiencia. También plantea preguntas sobre responsabilidad y dependencia tecnológica en decisiones militares.

El caso de Claude muestra hasta qué punto la inteligencia artificial ya no es un experimento de laboratorio. Es una herramienta integrada en la estructura de defensa de una potencia global.

Y su papel en conflictos como el de Irán refleja una transformación que apenas comienza.

Digna Irene Urrea

Digna Irene Urrea

Comunicadora social y periodista apasionada por las buenas historias, el periodismo literario y el lenguaje audiovisual. Aficionada a la tecnología, la ciencia y la historia.

View all posts

Archivos