Anthropic niega poder sabotear su IA Claude para el ejército de EE.UU.

🚀 Una disputa legal sin precedentes sacude al mundo de la inteligencia artificial. Anthropic ha respondido públicamente a las acusaciones de la administración Trump, negando rotundamente que pueda manipular su modelo de IA Claude una vez que el ejército estadounidense lo tenga en funcionamiento.

En un documento judicial presentado el viernes, Thiyagu Ramasamy, jefe de sector público de Anthropic, declaró: «Anthropic nunca ha tenido la capacidad de hacer que Claude deje de funcionar, alterar su funcionalidad, cerrar el acceso o de otra manera influir o poner en peligro las operaciones militares». Además, añadió que la empresa no tiene el acceso requerido para desactivar la tecnología o alterar el comportamiento del modelo antes o durante las operaciones en curso.

El conflicto lleva meses gestándose. El Pentágono ha estado en disputas con el laboratorio de IA líder sobre cómo se puede utilizar su tecnología para la seguridad nacional y cuáles deberían ser los límites de uso. Este mes, el secretario de Defensa Pete Hegseth etiquetó a Anthropic como un riesgo de cadena de suministro, una designación que impedirá al Departamento de Defensa utilizar el software de la empresa, incluso a través de contratistas, durante los próximos meses. Otras agencias federales también están abandonando Claude.

Anthropic ha presentado dos demandas impugnando la constitucionalidad de la prohibición y busca una orden de emergencia para revertirla. Los clientes ya han comenzado a cancelar acuerdos, y una audiencia en uno de los casos está programada para el 24 de marzo en un tribunal federal en San Francisco.

📎 Fuente: wired.com


Descubre más desde EDUCATRÓNICA

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja un comentario