02/03/2026 12:47
02/03/2026 12:46
02/03/2026 12:46
02/03/2026 12:46
02/03/2026 12:46
02/03/2026 12:46
02/03/2026 12:46
02/03/2026 12:46
02/03/2026 12:46
02/03/2026 12:46
» TN
Fecha: 02/03/2026 10:46
La semana pasada, Donald Trump prohibió el uso del chatbot Claude en agencias de gobierno y tildó a Anthropic, la compañía que desarrolla esa inteligencia artifcial, de pertenecer a la izquierda radical. La proscripción tuvo, pronto, una contracara: el sistema de IA ganó visibilidad y se ubicó en el primer puesto dentro del ranking de descargas de la App Store, la tienda de aplicaciones de Apple, superando a dos popes de ese negocio, ChatGPT de OpenAI y Google Gemini. Leé también: Un joven le compró un libro para colorear a un nene emprendedor y lo que vio al abrirlo lo dejó sin palabras La decisión de Trump se produjo luego de que Anthropic se negara a ceder a pedidos del gobierno. En concreto, la startup se rehusó a que sus modelos sean utilizados para vigilancia doméstica masiva y para el desarrollo de armas autónomas, según Engadget. En ese marco, el presidente estadounidense dijo que Anthropic es un representante de la izquierda radical. Los chiflados de izquierda de Anthropic han cometido un error desastroso al intentar presionar al Departamento de Guerra y obligarlo a obedecer sus Términos de Servicio en lugar de nuestra constitución. Su egoísmo está poniendo en riesgo vidas estadounidenses (...) a nuestras tropas y a nuestra seguridad nacional, escribió Trump en un mensaje publicado en Truth Social. ¡No lo necesitamos, no lo queremos y no volveremos a hacer negocios con ellos!, aseveró el republicano. Leé también: El CEO de OpenAI calificó como ridículo el plan de Elon Musk para llevar centros de datos al espacio Por su parte, el secretario del Departamento de Defensa de Estados Unidos, Pete Hegseth, mencionó que Anthropic es traicionera y arrogante, que representa un riesgo para la cadena de suministro y la seguridad, y que podría ser catalogada como tal. La respuesta de Anthropic: Una medida sin precedentes Segú recoge Univisión, desde Anthropic señalaron que esa designación sería una medida sin precedentes, reservada históricamente para los adversarios de Estados Unidos, y que nunca se había aplicado públicamente a una empresa estadounidense". Añadieron que ningún tipo de intimidación o sanción hará que cambien de postura sobre la vigilancia masiva interna o las armas totalmente autónomas. Impugnaremos ante los tribunales cualquier designación de riesgo en la cadena de suministro, aseguraron. Tras la negativa de Anthropic, OpenAI la organización detrás de ChatGPT llegó a un acuerdo con el Departamento de Defensa de Estados Unidos, ocupando de este modo la vacante que dejó su competidor. ¿Qué es Claude? Se trata de un chatbot con un funcionamiento similar al de ChatGPT, Gemini y Grok, por mencionar algunas propuestas de la competencia. Como tal, es uno de los representantes más conocidos en el ámbito de la inteligencia artificial generativa. El nombre y los desarrollos de este grupo sorprendieron luego de 2022 debido a la eficiencia y buenas prestaciones de Claude, comparables con las de los sistemas de OpenAI y Google, a pesar de contar con una infraestructura notablemente más pequeña en comparación con las de aquellos conglomerados. Dario Amodei, uno de los que fundó Anthropic en el año 2021, anteriormente trabajo en OpenAI. Leé también: Renunció el jefe de seguridad de una de las principales empresas de IA y lanzó una fuerte advertencia También en línea con sus rivales, la startup ha protagonizado polémicas diferentes a su actual enfrentamiento con el gobierno de Estados Unidos. Tal como contamos anteriormente en TN Tecno, Anthropic fue demandada por artistas y compañías por el supuesto uso indebido de datos y obras para el entrenamiento de su modelo de IA.
Ver noticia original