Corte de EE. UU. mantiene veto del Pentágono contra Anthropic pese a argumentos de “daño irreparable”
- Ana Paula Sánchez
- abril 10, 2026
- Empresas
- Anthropic
- 0 Comments
Un tribunal federal de apelaciones en Washington D.C. ha rechazado la solicitud de la empresa de inteligencia artificial Anthropic para suspender temporalmente la prohibición impuesta por el Pentágono, la cual clasifica a la compañía como un riesgo para la cadena de suministro de seguridad nacional.
Esta decisión representa un revés parcial para el creador del chatbot Claude, ya que mantiene vigente la medida que obliga a los subcontratistas del Departamento de Defensa a certificar que no utilizan tecnologías desarrolladas por la firma. Aunque los jueces reconocieron que Anthropic sufre un daño sustancial, determinaron que este es principalmente financiero y que los intereses de seguridad nacional del gobierno prevalecen en esta instancia.
La disputa legal se originó tras la negativa de Anthropic a permitir que sus modelos de IA se utilicen en aplicaciones de armamento autónomo o vigilancia doméstica, lo que llevó a la administración federal a emitir sanciones punitivas.
Anthropic argumenta que estas medidas son una represalia que viola su derecho a la libertad de expresión y al debido proceso.
Esta resolución en Washington contrasta con un fallo previo de una jueza en San Francisco el pasado 26 de marzo, quien había bloqueado temporalmente una orden similar al considerar que las acciones del gobierno podrían carecer de una justificación jurídica clara.
Actualmente, Anthropic enfrenta dos frentes legales: uno contra la designación del Pentágono y otro contra una directiva presidencial que busca restringir el uso de sus tecnologías en diversas agencias federales.
Mientras el Tribunal de Apelaciones de Washington ha fijado una audiencia para examinar el fondo del asunto el próximo 19 de mayo, la incertidumbre regulatoria afecta no solo a la empresa, sino también a sus socios estratégicos comerciales.
El desenlace de este caso será fundamental para definir los límites de la autoridad gubernamental sobre el desarrollo ético de la inteligencia artificial y el control de la cadena de suministro tecnológica en Estados Unidos.


