Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • La herramienta de IA de Anthropic, Claude, desempeña un papel central en la campaña de EEUU contra Irán

    Buenos Aires » Infobae

    Fecha: 05/03/2026 11:09

    Para atacar 1.000 objetivos en las primeras 24 horas de su ofensiva contra Irán, las fuerzas armadas estadounidenses recurrieron a la inteligencia artificial más avanzada que jamás han utilizado en combate: una herramienta de la que el Pentágono podría tener dificultades para prescindir, incluso mientras corta lazos con la empresa que la creó. El Maven Smart System del ejército, desarrollado por la empresa de minería de datos Palantir, procesa una cantidad asombrosa de información clasificada proveniente de satélites, vigilancia y otros servicios de inteligencia, brindando identificación de objetivos y priorización en tiempo real para las operaciones militares en Irán, según tres fuentes familiarizadas con el sistema. Integrada en ese sistema se encuentra Claude, la herramienta de IA de Anthropic, una tecnología que fue prohibida por el Pentágono la semana pasada tras arduas negociaciones sobre las condiciones de su uso en contextos bélicos. Durante el último año, los planificadores militares han visto cómo Claude, combinada con Maven, se convirtió en una herramienta de uso diario en casi todos los sectores del ejército, según dos de las fuentes. Mientras se planificaba el posible ataque contra Irán, Maven, potenciado por Claude, sugirió cientos de objetivos, proporcionó coordenadas de ubicación precisas y los priorizó según su importancia, indicaron dos de las fuentes. La combinación de Maven y Claude ha creado una herramienta que acelera el ritmo de la campaña, reduce la capacidad de contraataque de Irán y convierte la planificación bélica que antes llevaba semanas en operaciones en tiempo real, dijo una de las fuentes. Los sistemas de IA también evalúan los ataques una vez iniciados, agregó esa misma persona. Claude también fue utilizado para neutralizar complots terroristas y en el operativo que capturó al venezolano Nicolás Maduro. Sin embargo, esta es la primera vez que se emplea en operaciones bélicas de gran escala, según dos de las fuentes. Aunque la herramienta se está usando para respaldar la campaña militar de EEUU en Irán, las relaciones entre el CEO de Anthropic, Dario Amodei, y la administración Trump se han deteriorado. Pocas horas antes de que comenzaran los bombardeos en Irán, el presidente Donald Trump anunció que prohibía a los organismos gubernamentales seguir utilizando las herramientas de Anthropic, dándoles seis meses para reemplazarlas. La medida se produjo tras un agrio enfrentamiento entre la empresa y el ejército en torno al uso de la tecnología en vigilancia masiva doméstica y en armamento totalmente autónomo. El ejército seguirá usando la tecnología mientras espera que se implemente un reemplazo, dijeron dos de las fuentes. Los comandantes militares se han vuelto tan dependientes del sistema de IA que, si Amodei ordenara al ejército cesar su uso, la administración Trump emplearía sus poderes gubernamentales para retener la tecnología hasta poder reemplazarla, según una de las fuentes. Tenga o no razón en sus principios, no vamos a permitir que las decisiones de [Amodei] cuesten una sola vida estadounidense, dijo esa persona. El Pentágono no respondió de inmediato a una solicitud de comentarios. El portavoz de Anthropic, Eduardo Maia Silva, declinó comentar. La portavoz de Palantir, Lisa Gordon, también declinó hacerlo. El uso de Claude en los ataques contra Irán fue reportado por primera vez por The Wall Street Journal. El uso de IA generativa avanzada en la campaña contra Irán llega en un momento de intenso debate sobre la ética y la velocidad de incorporar estas herramientas a la guerra. Es notable que ya hayamos llegado al punto en que la IA pasó de ser hipotética a respaldar operaciones reales que se llevan a cabo hoy, dijo Paul Scharre, vicepresidente ejecutivo del Centro para una Nueva Seguridad Americana y autor de varios libros sobre IA en la guerra. El cambio de paradigma clave es que la IA permite al ejército estadounidense desarrollar paquetes de objetivos a velocidad de máquina, no humana. Las desventajas, advirtió, son que la IA se equivoca. Necesitamos que los humanos verifiquen los resultados de la IA generativa cuando lo que está en juego son vidas. El Pentágono comenzó a integrar el chatbot Claude de Anthropic en Maven a finales de 2024, según anuncios públicos. El sistema se ha utilizado para generar objetivos propuestos, rastrear la logística y resumir la inteligencia proveniente del terreno. La administración Trump ha expandido considerablemente el uso de Maven a muchas otras áreas del ejército, con más de 20.000 militares utilizándolo a partir del pasado mes de mayo. Los comandantes que hoy dirigen la campaña contra Irán tienen amplia experiencia con Maven: usaron versiones anteriores del sistema en la retirada de Afganistán en 2021 y para apoyar a Israel tras los ataques del 7 de octubre de 2023, según una conferencia del contralmirante de la Marina Liam Hulin en 2024. Hulin, ahora subdirector de operaciones en el Comando Central, dijo entonces que el sistema integraba información proveniente de 179 fuentes de datos. Centcom está haciendo un uso intensivo del MSS, afirmó Hulin, refiriéndose a Maven por sus siglas. No quedó claro de inmediato si las listas de objetivos de Maven fueron compartidas con los israelíes antes del ataque, aunque ambas partes colaboraron durante meses en la definición de los blancos. Las Fuerzas de Defensa de Israel en estrecha cooperación con el Ejército de EE.UU., trabajaron miles de horas para construir un banco de objetivos tan valioso y extenso como fuera posible, señalaron en un comunicado poco después de iniciadas las operaciones. Anthropic fue la primera gran empresa de IA en trabajar con datos clasificados, mientras el Pentágono busca aprovechar la tecnología para modernizar la manera en que conduce la guerra. Amodei declaró la semana pasada que Claude estaba ampliamente desplegado en todo el Departamento de Defensa y en otras agencias de seguridad, y era utilizado para analizar inteligencia y planificar operaciones. Creo profundamente en la importancia existencial de usar la IA para defender a Estados Unidos y otras democracias, y para derrotar a nuestros adversarios autocráticos, escribió Amodei en una entrada de blog cuando las negociaciones con el Pentágono llegaron a un punto muerto. La adopción fue rápida. La OTAN, que firmó un contrato con Palantir el año pasado, presentó su versión de Maven como una herramienta que otorga a los comandantes capacidades similares a las de un videojuego para supervisar batallas, en un video reciente. En el ejército estadounidense, el sistema permitió a una unidad de artillería hacer el trabajo de 2.000 efectivos con un equipo de apenas 20 personas, según un estudio de su uso por el 18.º Cuerpo Aerotransportado del Ejército realizado por la Universidad de Georgetown. Pero otras empresas de IA están ahora posicionadas para reemplazar a Anthropic en el Pentágono. xAI, de Elon Musk, firmó un acuerdo la semana pasada para trabajar en sistemas gubernamentales clasificados, al igual que el principal rival de Anthropic, OpenAI. Ben Van Roo, CEO y cofundador de Legion Intelligence, una startup de software de defensa, señaló que en su trabajo durante los últimos dos años y medio integrando IA generativa en sistemas de software del Departamento de Guerra, el caso de uso base es el chat y las funciones de búsqueda avanzada, básicamente resumir información. No está altamente integrada en armas ni en sistemas de misión crítica, aclaró. Dijo no tener conocimiento de su uso en Irán, pero se preguntó cómo se articuló con el software existente que ya es capaz de priorizar objetivos. Scharre dijo estar impresionado por la velocidad de despliegue en Irán. Es bastante notable ver esto en medio de una operación, agregó. (c) 2026 , The Washington Post

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por