Contacto

×
  • +54 343 4178845

  • bcuadra@examedia.com.ar

  • Entre Ríos, Argentina

  • Anthropic lanza Claude Gov para entornos clasificados del gobierno estadounidense

    Buenos Aires » Infobae

    Fecha: 06/06/2025 12:37

    Anthropic lanza Claude Gov, su modelo de IA para agencias de defensa e inteligencia de EEUU (Imagen Ilustrativa Infobae) Anthropic anunció Claude Gov, su producto diseñado específicamente para agencias de defensa e inteligencia de Estados Unidos. Los modelos de IA tienen protecciones menos estrictas para uso gubernamental y están entrenados para analizar mejor información clasificada. Estos modelos ya están desplegados por agencias del más alto nivel de seguridad nacional estadounidense, y el acceso a ellos está limitado a quienes operan en entornos clasificados. Los modelos de Claude Gov fueron desarrollados basándose en retroalimentación directa de clientes gubernamentales para abordar necesidades operativas reales, y se sometieron a las mismas rigurosas pruebas de seguridad que todos los modelos Claude. El resultado es un conjunto de modelos que comprende los requisitos únicos de seguridad nacional de sus clientes, manteniendo el compromiso inquebrantable de Anthropic con la seguridad y el desarrollo responsable de la IA. A diferencia de las versiones comerciales, Claude Gov cuenta con especificaciones particulares para el trabajo en seguridad nacional. Por ejemplo, “se niega menos cuando interactúa con información clasificada”, una diferencia clave respecto a los modelos orientados al consumidor, que suelen rechazar o marcar este tipo de datos. Además, el sistema ofrece una mayor comprensión de documentos y contextos propios de los sectores de defensa e inteligencia, así como una mejor capacidad para interpretar lenguas y dialectos críticos para operaciones de seguridad nacional. El modelo de IA de Anthropic prioriza la seguridad, el cumplimiento ético y la adaptación a necesidades de seguridad nacional (Imagen Ilustrativa Infobae) Seguridad, pruebas y compromiso con el uso responsable de la IA Anthropic ha subrayado su compromiso con la seguridad y el desarrollo responsable de la inteligencia artificial en el contexto gubernamental. Según la empresa, Claude Gov fue sometido a las mismas pruebas de seguridad que el resto de sus modelos, garantizando que la personalización para entornos clasificados no compromete los estándares de protección y ética. La compañía enfatizó que su objetivo es ofrecer soluciones de IA responsables y seguras a sus clientes de seguridad nacional, mediante modelos personalizados que atienden las necesidades únicas de los entornos clasificados. “El resultado es un conjunto de modelos Claude que comprende los requisitos únicos de seguridad nacional de nuestros clientes, manteniendo el compromiso inquebrantable de Anthropic con la seguridad y el desarrollo responsable de la IA”, afirmó la empresa. Aplicaciones previstas en defensa, inteligencia y ciberseguridad El despliegue de Claude Gov abre la puerta a una amplia gama de aplicaciones dentro de las agencias gubernamentales de Estados Unidos. Según Anthropic, los clientes de seguridad nacional pueden utilizar estos sistemas para tareas que van desde la planificación estratégica y el apoyo operativo, hasta el análisis de inteligencia y la evaluación de amenazas. Entre las capacidades destacadas se encuentran: Manejo mejorado de materiales clasificados Mayor comprensión de documentos e información en contextos de defensa e inteligencia Competencia mejorada en idiomas y dialectos críticos para operaciones de seguridad nacional Mejor comprensión e interpretación de datos complejos de ciberseguridad para análisis de inteligencia Políticas de uso, restricciones y excepciones contractuales Anthropic establece políticas de uso estrictas y excepciones contractuales para el empleo responsable de Claude Gov (Imagen Ilustrativa Infobae) El uso de inteligencia artificial en el ámbito gubernamental ha estado históricamente bajo escrutinio debido a los riesgos potenciales y los efectos colaterales para comunidades vulnerables. Anthropic ha establecido una política de uso que prohíbe expresamente la creación o facilitación del intercambio de armas ilegales o altamente reguladas, así como la producción, modificación, diseño, comercialización o distribución de materiales peligrosos o sistemas diseñados para causar daño o pérdida de vidas humanas. No obstante, la compañía introdujo hace al menos once meses un conjunto de excepciones contractuales a su política de uso, calibradas cuidadosamente para permitir aplicaciones beneficiosas por parte de agencias gubernamentales seleccionadas. Ciertas restricciones —como la prohibición de campañas de desinformación, el diseño o utilización de armas, la construcción de sistemas de censura y operaciones cibernéticas maliciosas— permanecen vigentes. Sin embargo, Anthropic se reserva la facultad de adaptar las restricciones de empleo según la misión y la autoridad legal de cada entidad gubernamental, buscando equilibrar la utilidad de sus productos con la mitigación de posibles daños. Competencia sectorial y tendencia de integración de IA en gobiernos El lanzamiento de Claude Gov se produce en un contexto de creciente competencia entre grandes empresas tecnológicas por posicionar sus soluciones de IA en el sector público estadounidense. Claude Gov es la respuesta de Anthropic a ChatGPT Gov, el producto de OpenAI dirigido a agencias gubernamentales de Estados Unidos, presentado en enero. OpenAI informó que, en el último año, más de 90.000 empleados de gobiernos federales, estatales y locales han utilizado su tecnología para traducir documentos, generar resúmenes, redactar memorandos de políticas, escribir código y desarrollar aplicaciones, entre otras tareas. Dario Amodei, consejero delegado y cofundador de Anthropic (Reuters) Anthropic, por su parte, no ha divulgado cifras ni casos de uso específicos de Claude Gov, pero participa en el programa FedStart de Palantir, una plataforma de software como servicio (SaaS) orientada a empresas que buscan desplegar soluciones para el gobierno federal. Además, Scale AI, otro actor relevante en el sector, firmó en marzo un acuerdo con el Departamento de Defensa para desarrollar un programa pionero de agentes de IA para la planificación militar estadounidense. Posteriormente, Scale AI amplió su presencia internacional al cerrar un contrato de cinco años con Qatar para proveer herramientas de automatización en servicios civiles, salud y transporte. Preocupaciones y antecedentes sobre el uso de IA en gobiernos El uso de inteligencia artificial por parte de agencias gubernamentales ha generado preocupación durante años, debido a los posibles daños y repercusiones para minorías y comunidades vulnerables. Se han documentado numerosos arrestos erróneos en varios estados de Estados Unidos por el uso policial de sistemas de reconocimiento facial, así como evidencia de sesgos en la predicción policial y discriminación en algoritmos gubernamentales que determinan la asignación de ayudas sociales. Además, la colaboración de grandes tecnológicas con fuerzas militares ha sido objeto de controversia, especialmente en el caso de empresas como Microsoft, Google y Amazon, que han permitido el uso de sus productos de IA por parte de ejércitos, en particular en Israel. Estas alianzas han motivado campañas y protestas públicas, como el movimiento No Tech for Apartheid, que denuncia el utilización de tecnología en contextos de conflicto y ocupación. El uso de IA en gobiernos genera preocupaciones por riesgos, sesgos y repercusiones en comunidades vulnerables (Reuters) Tendencia creciente de colaboración entre empresas de IA y gobiernos La colaboración entre empresas de inteligencia artificial y gobiernos continúa en ascenso, impulsada tanto por la demanda de soluciones tecnológicas avanzadas como por la incertidumbre regulatoria. El reciente acuerdo de Scale AI con el Departamento de Defensa y su expansión internacional, junto con la participación de Anthropic en iniciativas como FedStart de Palantir, ilustran la consolidación de esta tendencia. En este escenario, el lanzamiento de Claude Gov refuerza la competencia y la integración de la IA en los sistemas de seguridad nacional, marcando un hito en la relación entre el sector tecnológico y las agencias gubernamentales de Estados Unidos.

    Ver noticia original

    También te puede interesar

    Examedia © 2024

    Desarrollado por