04/03/2026 19:09
04/03/2026 19:09
04/03/2026 19:09
04/03/2026 19:09
04/03/2026 19:09
04/03/2026 19:09
04/03/2026 19:09
04/03/2026 19:09
04/03/2026 19:08
04/03/2026 19:07
» TN
Fecha: 04/03/2026 15:15
Minutos antes de que se cumpliera el plazo de las 5:01 p. m. del viernes, Emil Michael, director de tecnología del Departamento de Defensa, estaba furioso. Durante semanas, Michael, quien fue un alto ejecutivo de Uber, había estado negociando un contrato de inteligencia artificial de 200 millones de dólares con Anthropic, la empresa de inteligencia artificial (IA) para el Pentágono. Las conversaciones habían sido complicadas porque el gobierno exigía un uso sin restricciones de los sistemas de IA de Anthropic, mientras que la empresa replicaba que no permitiría que su tecnología se utilizara para fines como la vigilancia de los estadounidenses. El secretario de Defensa, Pete Hegseth, había fijado el viernes como fecha límite para llegar a un acuerdo, y las dos partes estaban cerca. Solo faltaba concertar algunas palabras sobre la cuestión de la vigilancia legal de los estadounidenses, según dijeron varias personas con conocimiento de las conversaciones. Michael, que estaba en una llamada con ejecutivos de Anthropic, exigió que el director ejecutivo de la empresa, Dario Amodei, se pusiera al teléfono para discutir los detalles, según dijeron las personas. Pero se le informó a Michael que Amodei estaba reunido con su equipo ejecutivo y necesitaba más tiempo. Michael no quedó satisfecho con esa respuesta, dijeron las fuentes. También tenía un as bajo la manga: había estado negociando en paralelo una alternativa a Anthropic con su rival, OpenAI. Y ya se había llegado a un marco de trabajo entre el Pentágono y OpenAI. Así que cuando venció el plazo del viernes, el Departamento de Defensa no le dio más tiempo a Anthropic. A las 5:14 p. m., Hegseth anunció que había designado a Anthropic como un riesgo para la seguridad y que se le impediría trabajar con el gobierno estadounidense. "Los combatientes estadounidenses nunca serán rehenes de los caprichos ideológicos de las grandes empresas tecnológicas", publicó en las redes sociales. Esa misma noche, Sam Altman, director ejecutivo de OpenAI, anunció que su empresa había llegado a un acuerdo con el Pentágono para suministrar sus tecnologías de IA a sistemas clasificados. Al final, las conversaciones entre Anthropic y el Departamento de Defensa se deshicieron tras semanas de frustración acumulada entre hombres que tenían filosofías distintas sobre la IA y que no se caían bien. Este relato del fracaso de las conversaciones con Anthropic y del éxito del acuerdo con OpenAI se basa en entrevistas con una decena de personas con conocimiento de las negociaciones. The New York Times habló con personas de múltiples empresas y agencias gubernamentales y entrevistó a funcionarios con múltiples puntos de vista sobre la lucha por el futuro de la IA en la guerra. Michael, Amodei y Altman se conocen desde hace años por sus negocios en Silicon Valley, pero a menudo no se han llevado bien. Amodei y Altman, de 40 años, trabajaron juntos en OpenAI y son rivales acérrimos. Y mientras las conversaciones de Anthropic con el Departamento de Defensa se prolongaban la semana pasada, Michael, de 53 años, acusó públicamente a Amodei de ser "un mentiroso" con "complejo de Dios". Al final, Michael prefirió a Altman --quien ha cortejado al gobierno de Donald Trump-- antes que a Amodei, dijeron las personas con conocimiento de las negociaciones. Lo más probable es que los enfrentamientos entre el Departamento de Defensa y Anthropic no hayan terminado. El viernes, Anthropic dijo que interpondría una demanda por la decisión del Pentágono de etiquetarlo como "un riesgo para la cadena de suministro". La designación de riesgo para la cadena de suministro se ha reservado normalmente a empresas extranjeras que el gobierno estadounidense considera como una amenaza para la seguridad nacional; la etiqueta nunca se había utilizado contra una empresa estadounidense. Funcionarios de agencias de inteligencia estadounidenses, incluida la Agencia Central de Inteligencia, que utiliza la tecnología de IA de Anthropic, también han instado en privado a ambas partes a llegar a un acuerdo. Algunos exfuncionarios y funcionarios actuales dijeron que seguían teniendo esperanzas de que se llegara a un acuerdo de paz. (El Times ha demandado a OpenAI y a Microsoft, con alegaciones de infringir los derechos de autor de contenidos periodísticos relacionados con los sistemas de IA. Las empresas han negado esas acusaciones). El año pasado, Anthropic, OpenAI, Google y xAI formaron parte de un programa piloto del Pentágono para explorar cómo podría utilizarse la IA en defensa. Anthropic fue la única empresa que desplegó sus tecnologías para trabajar en sistemas clasificados, y su IA fue ampliamente utilizada por funcionarios de defensa. El 9 de enero, Hegseth publicó un memorándum en el que pedía que la IA se integrara ampliamente en el ejército y que las empresas de IA ofrecieran su tecnología sin restricciones. Para subrayarlo, Hegseth colocó carteles suyos generados por IA en distintos lugares del Pentágono con la frase: "Te quiero a ti utilizando IA". Su memorándum significaba que las empresas de IA que trabajaban con el Pentágono tenían que renegociar sus contratos. Anthropic, cuya tecnología era la más utilizada, se convirtió en el centro de las negociaciones. Michael se había incorporado al Departamento de Defensa como director de tecnología en mayo, después de trabajar como asistente especial en el Pentágono durante el gobierno de Barack Obama. Michael se convirtió en la persona de contacto en las negociaciones con Anthropic. Pero las conversaciones pronto llegaron a un punto muerto. Anthropic quería salvaguardas que impidieran que su IA fuera utilizada para la vigilancia masiva de estadounidenses o se desplegara en armas autónomas sin intervención humana. El Departamento de Defensa argumentó que ningún contratista privado podía decidir cómo se utilizarían legítimamente sus herramientas. El 24 de febrero, Hegseth convocó una reunión con Amodei en el Pentágono para encontrar una solución. Ambos se mostraron poco cordiales en la reunión, que duró menos de una hora, según dijeron personas familiarizadas con las conversaciones. Al final del encuentro, Hegseth dijo que si Anthropic no llegaba a un acuerdo con el Pentágono antes de las 5:01 p. m. del viernes, sería calificado como un riesgo para la cadena de suministro. Dijo que el Pentágono también podría invocar la Ley de Producción de Defensa para obligar a Anthropic a colaborar con el gobierno, medida que posteriormente se descartó. Al día siguiente, Altman, de OpenAI, llamó a Michael para hablar de un acuerdo con su empresa. Al cabo de un día, habían redactado un boceto de marco de trabajo. OpenAI aceptó la exigencia del Pentágono de que su IA pudiera utilizarse para todos los fines legítimos, pero también negoció el derecho a poner barreras técnicas en sus sistemas para adherirse a sus principios de seguridad. Amodei redobló la apuesta por la seguridad de la IA. En una declaración del jueves, dijo que Anthropic no podía "aceptar con la conciencia tranquila" las exigencias del Pentágono. "En un reducido número de casos, creemos que la IA puede socavar los valores democráticos, en lugar de defenderlos", añadió. "Algunos usos están simplemente fuera de los límites de lo que la tecnología actual puede hacer con seguridad y fiabilidad". Esa noche, Michael arremetió contra Amodei en las redes sociales, y llamó mentiroso al director de Anthropic. "Lo único que quiere es intentar controlar personalmente a las Fuerzas Armadas de Estados Unidos y le parece bien poner en peligro la seguridad de nuestra nación", publicó Michael. A medida que se acercaba la fecha límite del viernes, los ejecutivos de Anthropic pensaban que estaban cerca de llegar a un acuerdo con el Pentágono y solo les faltaban unas palabras sobre la cuestión de la vigilancia, dijeron personas de ambos lados de la negociación. Para complicar el asunto, el presidente Donald Trump publicó un mensaje en las redes sociales. Trump había comunicado a Hegseth el viernes por la mañana que había preparado una publicación en la que menospreciaba a Anthropic y ordenaba a todas las agencias gubernamentales que dejaran de trabajar con la compañía en un plazo de seis meses. Incluso cuando Trump publicó el mensaje a las 3:47 p. m., las dos partes seguían en conversaciones. Michael, que en ese momento estaba en una llamada con ejecutivos de Anthropic, dijo que el Pentágono quería que la empresa permitiera la recopilación y el análisis de datos comerciales masivos no clasificados sobre estadounidenses, como datos de geolocalización y navegación por internet, dijeron personas informadas de las negociaciones. Anthropic le dijo al Pentágono que estaba dispuesta a permitir que la Agencia de Seguridad Nacional utilizara su tecnología para el material clasificado recogido en virtud de la Ley de Vigilancia de Inteligencia Extranjera. Pero la empresa quería una promesa jurídicamente vinculante del Pentágono de que no utilizaría su tecnología en datos comerciales no clasificados. En ese momento, Michael pidió hablar con Amodei, quien no estaba en la llamada. Le dijeron que estaba en una reunión. Poco después, Hegseth dijo que las conversaciones habían terminado. A las 10:00 p. m. del viernes, mientras los abogados de Anthropic empezaban a trabajar en una demanda contra el Pentágono, Altman estaba al teléfono con Michael ultimando los detalles del acuerdo de OpenAI con el Departamento de Defensa. Altman publicó entonces la noticia del acuerdo en las redes sociales. Más tarde, Hegseth volvió a publicar el anuncio de Altman desde su cuenta personal de X. El sábado, Altman invitó a la gente a hacerle preguntas en X sobre el acuerdo, mientras OpenAI se enfrentaba a una reacción negativa por su intervención. Muchos se preguntaban cómo podía OpenAI firmar un acuerdo con el Pentágono y mantener sus principios de seguridad, así como si el acuerdo de OpenAI protegía realmente sus modelos de IA de un uso indebido. Altman dijo que veía el acuerdo en términos más sencillos. "No queremos la capacidad de opinar sobre una acción militar específica (y legal)", escribió. "Pero sí queremos la capacidad de utilizar nuestra experiencia para diseñar un sistema seguro". Tripp Mickle y Kate Conger colaboraron con reportería desde San Francisco. Sheera Frenkel es una periodista que vive en el Área de la Bahía de San Francisco y cubre las formas en que la tecnología afecta la vida cotidiana, enfocándose en las empresas de redes sociales como Facebook, Instagram, Twitter, TikTok, YouTube, Telegram y WhatsApp. Cade Metz es un reportero del Times que cubre inteligencia artificial, coches autónomos, robótica, realidad virtual y otras áreas emergentes de la tecnología. Julian E. Barnes cubre las noticias relacionadas con las agencias de inteligencia estadounidenses y los asuntos de seguridad internacional para el Times. Lleva más de dos décadas reportando sobre temas de seguridad. Tripp Mickle y Kate Conger colaboraron con reportería desde San Francisco.
Ver noticia original