En Resumen
- Anthropic demandó al gobierno federal alegando represalias inconstitucionales tras negarse a permitir el uso de Claude en armas autónomas y vigilancia masiva.
- La demanda nombra a Pete Hegseth, Scott Bessent y Marco Rubio, y busca anular la designación de Anthropic como riesgo de cadena de suministro.
- Pese a la lista negra, Claude siguió siendo usado por el Comando Central de EE.UU. para analizar inteligencia durante los ataques sobre Irán.
Anthropic ha recurrido a los tribunales federales para luchar contra una lista negra generalizada por la administración de Donald Trump, alegando que el gobierno etiquetó a la startup de IA como una amenaza para la seguridad nacional en represalia por su negativa a relajar los protocolos de seguridad.
La demanda, presentada el lunes en el Tribunal de Distrito de los Estados Unidos del Norte de California, impugna las acciones tomadas después de que el Presidente Trump ordenara a las agencias federales en febrero dejar de usar la tecnología de Anthropic. Esto siguió a comentarios públicos del CEO de Anthropic, Dario Amodei, quien dijo que la empresa no cumpliría con la solicitud del Pentágono de acceso irrestricto a Claude. La denuncia nombra a múltiples agencias federales y altos funcionarios como demandados, incluidos el Secretario de Defensa Pete Hegseth, el Secretario del Tesoro Scott Bessent y el Secretario de Estado Marco Rubio.
"La Constitución no permite al gobierno ejercer su enorme poder para castigar a una empresa por su discurso protegido", dijeron los abogados de Anthropic en la demanda. "Ningún estatuto federal autoriza las acciones tomadas aquí. Anthropic recurre al poder judicial como último recurso para vindicar sus derechos y detener la campaña ilegal de represalias del Ejecutivo."
At the direction of @POTUS, the @USTreasury is terminating all use of Anthropic products, including the use of its Claude platform, within our department.
The American people deserve confidence that every tool in government serves the public interest, and under President Trump… https://t.co/R7rF0ci5CY
— Treasury Secretary Scott Bessent (@SecScottBessent) March 2, 2026
La disputa comenzó en enero cuando funcionarios del Pentágono exigieron a los contratistas de IA permitir que sus sistemas se utilicen para "cualquier uso legal", incluidas aplicaciones militares. Si bien Anthropic ya había firmado un contrato de $200 millones con el Departamento de Defensa, se negó a eliminar dos salvaguardias que prohibían el uso de Claude para la vigilancia masiva interna de los estadounidenses o para sistemas de armas letales totalmente autónomos.
"Las Acciones Impugnadas infligen daños inmediatos e irreparables en Anthropic; en otros cuya libertad de expresión se verá coartada; en aquellos que se benefician del valor económico que la empresa puede seguir creando; y en un público global que merece un diálogo y debate sólidos sobre lo que la IA significa para la guerra y la vigilancia", afirmaron los abogados de Anthropic en la demanda.
Para los desarrolladores de IA, como el CEO de SingularityNET, Ben Goertzel, la designación es una elección extraña y no encaja con el significado típico de una amenaza de la cadena de suministro, algo que generalmente se reserva para software de adversarios que podrían contener malware oculto, virus o spyware.
"Que Anthropic no esté dispuesta a que su software se utilice para matanzas autónomas o vigilancia masiva no parece representar un riesgo de esa naturaleza", señaló Goertzel a Decrypt. "Eso simplemente significa que si quieres usar software para matanzas autónomas o vigilancia masiva, entonces compra el software de otra persona. Así que la lógica de convertirlo en un riesgo de la cadena de suministro me resulta difícil de entender".
Goertzel indicó que las diferencias entre los principales modelos de IA pueden limitar el impacto práctico de la decisión.
"Al final, Claude, ChatGPT y Gemini no están tan lejos el uno del otro", agregó. "Mientras uno de estos sistemas principales esté siendo utilizado por el gobierno de EE. UU., todo se trata de lo mismo. Y las agencias de inteligencia, bajo el manto de la autorización de alto secreto, usarían el software como quisieran."
Anthropic está pidiendo a la corte que declare las acciones del gobierno como ilegales y bloquee la aplicación de la designación de "riesgo de cadena de suministro" que impide a las agencias federales y contratistas del Pentágono hacer negocios con la empresa.
"No hay justificación válida para las Acciones Impugnadas", dice la demanda. "El Tribunal debería declararlas ilegales y ordenar a los Demandados que no tomen medidas para implementarlas."
Anthropic no respondió de inmediato a las solicitudes de comentarios de Decrypt.
Incluso después de designar a Anthropic como un riesgo para la seguridad nacional, Claude ha sido utilizado en operaciones militares en curso, como por el Comando Central de EE. UU. para ayudar a analizar inteligencia e identificar objetivos durante los ataques en Irán.
Jennifer Huddleston, investigadora principal en política tecnológica en el Instituto Cato, afirmó en un comunicado compartido con Decrypt que el caso plantea preocupaciones sobre las protecciones constitucionales cuando las afirmaciones de seguridad nacional se utilizan para justificar la acción gubernamental.
"Si bien los tribunales han sido reacios en el pasado a cuestionar las afirmaciones del gobierno sobre preocupaciones de seguridad nacional, las circunstancias de este caso ciertamente resaltan el verdadero riesgo para los derechos de la Primera Enmienda de los estadounidenses si las consideraciones subyacentes de tales afirmaciones no son examinadas minuciosamente", señaló.

