Un juez bloquea al Pentágono de clasificar a Anthropic como una amenaza a la seguridad nacional.

Decrypt

En resumen

  • Un juez federal bloqueó al Pentágono para etiquetar a Anthropic como un riesgo de cadena de suministro, al considerar que la medida probablemente violó los derechos de Primera Enmienda y de debido proceso de la empresa.
  • La disputa surgió de un contrato de IA del Departamento de Defensa por $200 millones que se derrumbó después de que Anthropic se negara a permitir el uso de su modelo para vigilancia masiva o para guerra autónoma letal.
  • El fallo restablece temporalmente la posición de Anthropic ante contratistas federales y podría influir en la forma en que las empresas de IA establecen límites de uso en acuerdos con el gobierno.

Un juez federal bloqueó al Pentágono para etiquetar a Anthropic como un riesgo de cadena de suministro, y dictaminó el jueves que la campaña del gobierno contra la empresa de IA violó sus derechos de Primera Enmienda y de debido proceso. La jueza del Tribunal de Distrito de EE. UU. Rita Lin emitió una orden judicial preliminar desde el Distrito Norte de California dos días después de escuchar alegatos orales de ambas partes, en un caso que los observadores dicen que fue inevitable debido a la propia documentación del gobierno. “Nada en el estatuto aplicable respalda la noción orwelliana de que una empresa estadounidense pueda ser marcada como un posible adversario y saboteador de EE. UU. por expresar su desacuerdo con el gobierno”, escribió la jueza Lin.

 El registro interno fue mortal para el caso del gobierno, según Andrew Rossow, abogado de asuntos públicos y CEO de AR Media Consulting, quien le dijo a Decrypt que la designación se “disparó por la conducta de la prensa, no por un análisis de seguridad”. “El gobierno esencialmente escribió su propia motivación, y fue una represalia”, dijo Rossow. La disputa se centra en un contrato de dos años y $200 millones otorgado a Anthropic en julio de 2025 por la Oficina de Jefe de Transformación Digital e Inteligencia Artificial del Departamento de Guerra.

Las negociaciones para desplegar Claude en la plataforma GenAI.Mil del departamento se estancaron después de que ambas partes no lograran acordar restricciones de uso. Anthropic insistió en dos condiciones: que Claude no se use para vigilancia masiva de estadounidenses ni para un uso letal en guerra autónoma, argumentando que el modelo aún no era seguro para ninguno de esos fines. En una reunión del 24 de febrero, el secretario de Guerra Pete Hegseth dijo a los representantes de Anthropic que, si la empresa no eliminaba sus restricciones para el 27 de febrero, el departamento la designaría de inmediato como un riesgo de cadena de suministro. Anthropic se negó a cumplir. El mismo día, el presidente Trump publicó una directiva en Truth Social ordenando a cada agencia federal que “deje de inmediato” usar la tecnología de la empresa, calificando a Anthropic como una “empresa radical de izquierda, woke”. Un poco más de una hora después, Hegseth describió la postura de Anthropic como una “clase magistral de arrogancia y traición”, ordenando que ningún contratista que haga negocios con el ejército pueda realizar actividad comercial con la empresa. La designación formal de cadena de suministro siguió con una carta el 3 de marzo. Anthropic demandó al gobierno el 9 de marzo, alegando violaciones de la Primera Enmienda, del debido proceso y de la Ley de Procedimiento Administrativo. “Castigar a Anthropic por someter a escrutinio público la posición de contratación del gobierno es una clásica represalia ilegal de Primera Enmienda”, escribió la jueza Lin en la orden del jueves.

La orden, que se suspendió durante siete días, bloquea las tres acciones del gobierno, exige un informe de cumplimiento para el 6 de abril y restablece el statu quo antes de los acontecimientos del 27 de febrero. Convertir la ley en un arma La designación de ser un “riesgo de cadena de suministro” ha estado históricamente reservada para agencias de inteligencia extranjeras, terroristas y otros actores hostiles.  Nunca se había aplicado a una empresa nacional antes de Anthropic. Los contratistas de defensa comenzaron a evaluar y, en muchos casos, a terminar su dependencia de Anthropic en las semanas posteriores, señaló la orden de la jueza Lin. Y la postura del gobierno podría tener consecuencias imprevistas, argumentan expertos. De hecho, el fallo del jueves podría empujar a las empresas de IA “a formalizar salvaguardas éticas cuando trabajen con gobiernos”, dijo a Decrypt Pichapen Prateepavanich, estratega de políticas y fundador de la firma de infraestructura Gather Beyond. En cierta medida, el fallo también sugiere que las empresas “pueden establecer límites claros de uso sin activar automáticamente una acción regulatoria punitiva”, añadió. Pero esto “no elimina la tensión”, dijo. Lo que limita el fallo es “la capacidad de escalar ese desacuerdo hasta una exclusión más amplia o un etiquetado que parezca represalia”. Aun así, la aplicación de la autoridad legal vigente para designar a una empresa como un riesgo de cadena de suministro “porque se negó a eliminar salvaguardas de seguridad” no es una ampliación de la ley de riesgo de la cadena de suministro, explicó Rossow. En cambio, funciona como una “weaponización” de la ley.

“Esto forma parte de un patrón continuo de conducta de la Casa Blanca cada vez que la desafían, lo que resulta en amenazas desproporcionadas, impulsadas por la emoción y sesgadas, y en extorsión gubernamental,” añadió. Si se acepta la “teoría” del gobierno, se crearía un precedente “peligroso” en el que las empresas de IA pueden ser incluidas en listas negras por políticas de seguridad que al gobierno no le gustan, “antes de que ocurra cualquier daño”, sin debido proceso, bajo la bandera de la seguridad nacional, dijo Rossow.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios