Juiz condena veementemente os EUA por violar a constituição! Exige a revogação da etiqueta de risco na cadeia de suprimentos da Anthropic, relatório prévio até 6/4

CryptoCity

Um juiz federal suspendeu temporariamente o Pentágono de listar a Anthropic como uma ameaça, considerando a ação como uma retaliação inconstitucional, e o plano de IPO de 380 bilhões de dólares da gigante da IA prossegue.

A espada da justiça se volta contra o Pentágono, juiz critica a rotulagem “orwelliana” como uma violação da constituição

A indústria de IA dos EUA recentemente celebrou uma vitória judicial emblemática. A juíza federal da Califórnia, Rita Lin, emitiu na última quinta-feira (26/3) uma ordem de restrição preliminar que impede o governo Trump de listar a gigante da IA Anthropic entre os riscos da cadeia de suprimentos. Esta decisão desafia diretamente a ordem executiva do Pentágono e do secretário de Defesa, Pete Hegseth, com a juíza usando uma linguagem contundente ao afirmar que a rotulagem de uma empresa americana como “potencial adversário” e “destrutiva” por parte do governo é altamente irônica.

Rita Lin enfatizou que a atual estrutura legal não suporta essa lógica administrativa “orwelliana”. O sistema administrativo, apenas porque uma empresa expressa uma posição diferente da do governo, considera isso uma ameaça à segurança nacional, claramente ultrapassando os limites da autorização. O tribunal ordenou que o governo federal deve imediatamente parar de aplicar as restrições relacionadas e apresentar um relatório de conformidade até 6 de abril, explicando como planeja reverter a ordem de restrição.

O cerne desta batalha legal envolve se o governo está usando o nome da segurança nacional para retaliar contra a liberdade de expressão. De acordo com os dados revelados pelo tribunal, a ação do Departamento de Defesa (ou do Departamento de Guerra) contra a Anthropic foi em grande parte baseada nas declarações públicas da empresa na mídia, sem uma avaliação rigorosa da segurança técnica. A juíza apontou que punir a Anthropic gerou preocupação pública sobre a posição do governo em relação a contratos, caracterizando isso como uma retaliação que viola a Primeira Emenda da constituição. Durante uma audiência na terça-feira em São Francisco, Rita Lin questionou se a definição do governo de uma empresa como “ameaça” não é excessivamente baixa.

Ela argumentou que se o Pentágono tem preocupações sobre o controle tecnológico, pode simplesmente parar de usar o modelo Claude, e aplicar uma rotulagem de “risco da cadeia de suprimentos” que é insultuosa e destrutiva não é apropriado. Esta decisão restaurou temporariamente a posição de colaboração da Anthropic com os contratantes federais, estabelecendo um guarda-chuva legal para as futuras empresas de IA diante da pressão governamental.

Recusando-se a se tornar uma máquina de guerra, Anthropic sofre retaliação por sua adesão à ética da IA

Retrocedendo à causa desse conflito, tudo começou com um contrato de 200 milhões de dólares assinado entre a Anthropic e o Pentágono em julho de 2025. Na época, ambas as partes concordaram que Claude se tornaria o primeiro modelo de IA de ponta a operar em uma rede secreta.

No entanto, a relação de colaboração rapidamente se rompeu em fevereiro de 2026. O Departamento de Defesa tentou renegociar os termos do contrato, exigindo que a Anthropic removesse todas as restrições, permitindo que as forças armadas usassem Claude para todos os fins legais. A Anthropic, que sempre defendeu a segurança da IA, manteve sua posição, recusando-se a aplicar sua tecnologia em sistemas de armas autônomas letais e em atividades de vigilância em massa sobre cidadãos americanos. A alta gestão da empresa acredita que os modelos de IA atuais não possuem segurança e precisão suficientes para esses setores sensíveis, e um uso imprudente em campos de batalha ou vigilância poderia resultar em consequências catastróficas.

A situação rapidamente escalou, com a reação do sistema administrativo exibindo uma forte carga emocional. Em 24 de fevereiro, o secretário de Defesa Hegseth emitiu um ultimato à Anthropic em uma reunião, ameaçando a empresa com sanções imediatas se não removesse as restrições. Após a recusa da Anthropic em comprometer-se, o presidente Trump criticou publicamente a empresa no Truth Social em 27 de fevereiro, chamando-a de “empresa radical de esquerda, acordada”, e acusou-a de tentar intimidar o Departamento de Defesa, ordenando em seguida que todas as agências federais parassem de usar os produtos da Anthropic.

Logo depois, Hegseth descreveu a posição da Anthropic como “uma obra de arrogância e traição”, emitindo formalmente a rotulagem de risco da cadeia de suprimentos. Esta medida extrema, normalmente reservada para agências de inteligência estrangeiras ou organizações terroristas, foi aplicada pela primeira vez a uma empresa de tecnologia americana. Especialistas acreditam que essa militarização da lei reflete a impaciência do sistema administrativo diante dos desafios éticos tecnológicos.

  • Notícias relacionadas: Segurança Nacional VS Ética: Anthropic recusa remover as barreiras de segurança do Claude, confrontando o Departamento de Defesa dos EUA

O mercado de capitais dá um voto de confiança, gigante avaliado em 380 bilhões avança com plano de IPO em outubro

Apesar de estar imersa em uma tempestade política e legal, a Anthropic continua a mostrar um desempenho robusto no mercado de capitais, demonstrando uma resiliência impressionante. Os dados de 2025 mostram que a Anthropic detém uma participação de 32% no mercado de IA empresarial, superando os 25% da OpenAI, posicionando-se como líder da indústria. Na recente rodada de financiamento de 30 bilhões de dólares concluída em fevereiro deste ano, a avaliação da empresa de IA disparou para 380 bilhões de dólares, com a rodada sendo liderada pelo fundo soberano MGX.

Simultaneamente, gigantes tecnológicos como Alphabet, Google, Amazon, Microsoft e Nvidia estabeleceram parcerias profundas com a Anthropic, com investimentos e transações de infraestrutura totalizando dezenas de bilhões. O apoio desses gigantes do Vale do Silício fornece à Anthropic a base econômica para resistir à pressão política.

  • Notícias relacionadas: Anthropic processa o governo! Acusa Trump de retaliar e bloquear Claude, 37 pesquisadores de IA apoiam

A mais recente decisão do tribunal abriu caminho para a Anthropic no mercado público. Fontes revelaram que a Anthropic está acelerando seus planos de IPO (oferta pública inicial), com a possibilidade de listar ações já em outubro de 2026, esperando arrecadar mais de 60 bilhões de dólares. Atualmente, bancos de investimento de primeira linha como Goldman Sachs, JPMorgan e Morgan Stanley estão sendo considerados como consultores de subscrição.

Especialistas jurídicos apontam que, se a ordem de proibição do governo continuar em vigor, isso diminuirá drasticamente a participação da Anthropic no mercado, prejudicando a confiança dos investidores. Agora que o juiz declarou a ordem inconstitucional, a proteção dos interesses comerciais da empresa foi assegurada. Isso também envia uma mensagem ao mercado: a insistência das empresas na ética de segurança da IA deve ser protegida pela lei e não deve ser usada como desculpa para repressão governamental.

Centro de dados de 5 bilhões de dólares no Texas em construção, forças na linha de frente ignoram a proibição e continuam usando Claude

Fora da batalha legal, a expansão da infraestrutura da Anthropic não parou. O Google está planejando apoiar um projeto de centro de dados de 5 bilhões de dólares no Texas, que será totalmente alugado para uso pela Anthropic. Este parque de 2.800 acres será operado pela Nexus Data Centers, e deverá fornecer cerca de 500 megawatts (MW) de capacidade elétrica até o final de 2026, suficiente para atender às necessidades de eletricidade de 500.000 residências, com potencial de expansão para 7,7 gigawatts (GW) no futuro. O local do projeto é favorável, próximo a gasodutos principais, permitindo o uso de turbinas a gás no local para garantir alta confiabilidade na capacidade de computação da IA. Este ambicioso projeto de infraestrutura demonstra a intenção firme da indústria tecnológica de investir a longo prazo em infraestrutura de IA.

Além disso, segundo relatos da mídia estrangeira, o exército dos EUA já desenvolveu uma dependência do modelo Claude internamente. Mesmo com a rígida proibição imposta pela Casa Branca, o Comando Central dos EUA (CENTCOM) continuou a usar o modelo de IA da Anthropic para apoio em operações durante recentes ataques aéreos contra o Irã. Isso expõe a desconexão entre a política governamental e as necessidades da linha de frente.

  • Notícias relacionadas: The Wall Street Journal: Depois que Trump impôs a ordem de bloqueio à Anthropic, os ataques aéreos dos EUA ao Irã ainda dependem do Claude

O departamento administrativo colocou a Anthropic na lista de risco devido a questões políticas, enquanto as unidades de combate, devido a vantagens tecnológicas, escolheram confiar nela. A construção do centro de dados e a aplicação prática demonstram a importância da Anthropic. Com o tribunal restaurando sua identidade de fornecedor federal, essa gigante da IA continuará a evoluir no equilíbrio entre ética tecnológica e interesses nacionais, e a enfrentar possíveis recursos do governo no futuro.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário