Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • La disputa entre el Pentágono y Anthropic por el uso militar de la Inteligencia Artificial llega a un momento crítico

    » La Nacion

    Fecha: 27/02/2026 13:32

    La disputa entre el Pentágono y Anthropic por el uso militar de la Inteligencia Artificial llega a un momento crítico Dario Amodei dijo que su empresa no puede, en conciencia, acceder a las exigencias del gobierno norteamericano y se enfrenta a consecuencias para su negocio - 7 minutos de lectura' NUEVA YORK. Un enfrentamiento público entre el Pentágono y Anthropic, uno de los principales laboratorios de inteligencia artificial (IA), llegará a un punto crítico en la tarde del viernes, mientras los funcionarios militares exigen que la empresa modifique sus políticas de ética o sufra las consecuencias para su negocio. La disputa es vista ampliamente como un referéndum sobre cómo la IA debería ser utilizada por las fuerzas armadas y cómo se gestionan sus riesgos. El Pentágono busca que se permita cualquier uso que sea considerado legal y ha amenazado el negocio de Anthropic si la empresa emergente no elimina las salvaguardas adicionales. El CEO de Anthropic, Dario Amodei, sin embargo, trazó una contundente línea roja 24 horas antes de la fecha límite, al declarar que su compañía no puede, en conciencia, acceder a la exigencia final del Pentágono de permitir un uso irrestricto de su tecnología. Es una llamada de atención sobre el futuro de la inteligencia artificial y su uso en el campo de batalla, dijo a Reuters Chris Miller, exsecretario de Defensa, quien añadió que el resultado de la disputa será una prueba decisiva para aquellas empresas que afirman querer utilizar la IA de manera humana. El conflicto, que lleva meses, ha dividido a algunos líderes del sector, funcionarios militares y legisladores sobre si la IA debería emplearse sin restricciones, después de que Anthropic afirmara que la tecnología aún no es lo suficientemente fiable para todo tipo de operaciones, cómo por ejemplo para su uso en la elaboración de armas totalmente autónomas. El Pentágono que el gobierno del presidente norteamericano, Donald Trump, rebautizó como el Departamento de Guerra ha rechazado el dilema, calificándolo como una falsa disyuntiva difundida por izquierdistas en los medios. Amenazas comerciales Anthropic, fabricante del chatbot Claude, puede permitirse perder un contrato de defensa. Pero el ultimátum de esta semana del secretario de Defensa norteamericano, Pete Hegseth, planteó riesgos más amplios en el punto álgido del meteórico ascenso de la empresa, que pasó de ser un poco conocido laboratorio de investigación en ciencias de la computación en San Francisco a una de las startups más valiosas del mundo. Si Amodei no cede, los funcionarios militares han advertido que no solo rescindirán el contrato con Anthropic, sino que además la considerarán un riesgo para la cadena de suministro, una designación que normalmente se aplica a adversarios extranjeros y que podría descarrilar las alianzas clave de la compañía con otras empresas. Y si Amodei terminara cediendo, podría perder la confianza dentro de la floreciente industria de la IA, en particular entre el talento de primer nivel atraído a la empresa por su promesa de desarrollar una inteligencia artificial superior a la humana de manera responsable y que, sin salvaguardas, podría implicar riesgos catastróficos. Anthropic afirmó que buscaba garantías acotadas por parte del Pentágono de que Claude no sería utilizado para la vigilancia masiva de estadounidenses ni en armas totalmente autónomas. Pero, después de que meses de conversaciones privadas estallaran en un debate público, señaló en un comunicado el jueves que el nuevo lenguaje contractual, presentado como un compromiso, estaba acompañado de formulaciones legales que permitirían que esas salvaguardas fueran ignoradas a voluntad". Eso ocurrió después de que Sean Parnell, principal vocero del Pentágono, publicara en redes sociales que no permitiremos que NINGUNA empresa dicte los términos sobre cómo tomamos decisiones operativas y añadiera que la compañía tiene hasta las 17.01 ET del viernes (19.01 en la Argentina) para decidir si cumplirá con las exigencias o enfrentará consecuencias. Emil Michael, subsecretario de Defensa para Investigación e Ingeniería, arremetió luego contra Amodei y sostuvo en X que tiene un complejo de Dios y que no quiere otra cosa que intentar controlar personalmente a las Fuerzas Armadas de Estados Unidos y está dispuesto a poner en riesgo la seguridad de nuestra nación". Negociaciones estancadas El mensaje no tuvo demasiada resonancia en gran parte de Silicon Valley, donde un número creciente de trabajadores tecnológicos incluidos empleados de los principales rivales de Anthropic, OpenAI y Google expresaron su apoyo a la postura de Amodei el jueves por la noche en una carta abierta. OpenAI y Google, junto con xAI de Elon Musk, también tienen contratos para suministrar sus modelos de IA al Ejército norteamericano. El Pentágono está negociando con Google y OpenAI para intentar que acepten lo que Anthropic ha rechazado, señala la carta abierta. Están tratando de dividir a cada empresa sembrando el temor de que la otra ceda". También manifestaron preocupación por el enfoque del Pentágono legisladores republicanos y demócratas, así como un exlíder de las iniciativas de IA del Departamento de Defensa. Poner a Anthropic en el centro de la mira genera titulares picantes, pero al final todos pierden, escribió en redes sociales el general retirado de la Fuerza Aérea Jack Shanahan. Shanahan enfrentó una ola distinta de oposición por parte de trabajadores tecnológicos durante el primer gobierno de Trump, cuando dirigió Maven, un proyecto destinado a utilizar tecnología de IA para analizar imágenes de drones y seleccionar objetivos. En aquel momento, tantos empleados de Google protestaron por la participación de la empresa en el Proyecto Maven que el gigante tecnológico decidió no renovar el contrato y luego se comprometió a no usar IA en armamento. Dado que estuve en el centro del Proyecto Maven y Google, es razonable suponer que aquí tomaría el lado del Pentágono, escribió Shanahan el jueves en redes sociales. Sin embargo, simpatizo con la posición de Anthropic. Más de lo que simpatizaba con la de Google en 2018». Señaló que Claude ya se utiliza ampliamente en todo el gobierno, incluso en entornos clasificados, y que las líneas rojas de Anthropic son razonables. Añadió que los modelos de lenguaje de gran escala que impulsan chatbots como Claude "no están listos para su uso pleno en entornos de seguridad nacional", especialmente no para armas totalmente autónomas. The Department of War has no interest in using AI to conduct mass surveillance of Americans (which is illegal) nor do we want to use AI to develop autonomous weapons that operate without human involvement. This narrative is fake and being peddled by leftists in the media. https://t.co/3pjWZ66aXz Sean Parnell (@SeanParnellASW) February 26, 2026 Parnell afirmó el jueves que el Pentágono quiere utilizar el modelo de Anthropic para todos los fines legales y sostuvo que ampliar el uso de la tecnología evitaría que la empresa ponga en riesgo operaciones militares críticas, aunque ni él ni otros funcionarios han detallado cómo pretenden emplearla. El Ejército no tiene interés en utilizar la IA para llevar a cabo vigilancia masiva de estadounidenses (lo cual es ilegal), ni queremos usar IA para desarrollar armas autónomas que operen sin intervención humana", escribió Parnell en X. Cuando Hegseth y Amodei se reunieron el martes, funcionarios militares advirtieron que podrían designar a Anthropic como un riesgo para la cadena de suministro, cancelar su contrato o invocar una ley de la Guerra Fría llamada Ley de Producción de Defensa para otorgar al ejército una autoridad más amplia para usar sus productos, incluso si la empresa no lo aprueba. Amodei afirmó el jueves que esas dos últimas amenazas son intrínsecamente contradictorias: una nos etiqueta como un riesgo para la seguridad; la otra califica a Claude como esencial para la seguridad nacional. Señaló que espera que el Pentágono reconsidere su postura dado el valor de Claude para el ámbito militar, pero que, de no ser así, Anthropic trabajará para facilitar una transición ordenada hacia otro proveedor. Agencias AP y Reuters Otras noticias de Estados Unidos Últimas Noticias Ahora para comentar debés tener Acceso Digital. Iniciar sesión o suscribite

    Ver noticia original

    También te puede interesar

  • Examedia © 2024

    Desarrollado por