News24Horas

La Administración Trump acusa a Anthropic de imponer términos «inaceptables» por su negativa al Pentágono

Por Redacción

El Gobierno de Estados Unidos ha acusado este martes a la empresa Anthropic de imponer «términos de servicio» sobre su inteligencia artificial (IA) «inaceptables» para la Administración de Donald Trump, en un documento judicial en el que ha defendido su decisión de declarar a la tecnológica como un «riesgo para la cadena de suministro y la Seguridad Nacional» ante la negativa de sus directivos de permitir su uso para una serie de fines militares, tras la demanda de la empresa contra la citada designación.

«Por razones de seguridad nacional, los términos de servicio de la tecnología de inteligencia artificial de la demandante Anthropic PBC se han vuelto inaceptables para el Poder Ejecutivo», ha declarado el Departamento de Justicia de Estados Unidos, que representa al Gobierno, en un documento judicial recogido por la agencia Bloomberg.

En su escrito, los abogados defensores de la Administración de Donald Trump han afeado que durante las negociaciones que el Departamento de Defensa mantuvo a principios de 2026 con la empresa para añadir una cláusula a su contrato que permitiera al Pentágono utilizar su tecnología para cualquier fin lícito, la tecnológica se negó a aceptarla debido a sus políticas de uso para Claude.

Por ello, el Departamento de Justicia ha alegado que «el comportamiento de Anthropic en general llevó al Departamento (de Defensa) a cuestionar si Anthropic representaba un socio de confianza con el que el Departamento estuviera dispuesto a contratar en este ámbito tan sensible», según el escrito.

Asimismo, el equipo legal del Ejecutivo ha mostrado la preocupación del Pentágono por la posibilidad de que permitir a la tecnológica seguir accediendo a sus sistemas técnicos y operativos de combate «introdujera un riesgo inaceptable» en las cadenas de suministro del Departamento de Defensa.

«Después de todo, los sistemas de IA son extremadamente vulnerables a la manipulación, y Anthropic podría intentar desactivar su tecnología o alterar preventivamente el comportamiento de su modelo antes o durante las operaciones de combate en curso, si Anthropic –a su discreción– considera que se están traspasando sus límites corporativos», han alegado los abogados.

Anthropic, la empresa tecnológica creadora del chatbot Claude, presentó una demanda en aras de conseguir una orden judicial preliminar para impedir que la prohibición del Departamento de Defensa entre en vigor mientras se resuelve el litigio.

Esta medida fue anunciada en redes por el jefe del Pentágono, Pete Hegseth, y designa a la empresa como un «riesgo para la cadena de suministro y la Seguridad Nacional» estadounidense ante la negativa de sus directivos de permitir su uso para fines militares basados en la «vigilancia doméstica masiva» o el desarrollo de «armas totalmente autónomas».

Las consecuencias inmediatas del citado anuncio suponen la finalización de toda relación comercial con la compañía de las empresas que realicen negocios con las Fuerzas Armadas estadounidenses y, de hecho, el secretario de Defensa describió la decisión como «definitiva», si bien apuntó a un cese gradual, con un límite máximo de seis meses, para «permitir una transición fluida hacia un servicio mejor y más patriótico».

ÚLTIMA HORA

,

Protagonistas