Pentágono define oficialmente a Anthropic como ‘risco na cadeia de abastecimento’

A administração Trump está a cumprir a sua ameaça de designar a empresa de inteligência artificial Anthropic como um risco na cadeia de abastecimento, numa medida sem precedentes que pode obrigar outros contratantes governamentais a parar de usar o chatbot de IA Claude.

Vídeo Recomendado


O Pentágono afirmou numa declaração na quinta-feira que “informou oficialmente a liderança da Anthropic de que a empresa e os seus produtos são considerados um risco na cadeia de abastecimento, com efeito imediato.”

A decisão parece ter encerrado a oportunidade de negociações adicionais com a Anthropic, quase uma semana depois de o Presidente Donald Trump e o Secretário de Defesa Pete Hegseth acusarem a empresa de colocar a segurança nacional em risco.

Trump e Hegseth anunciaram uma série de ameaças de punições na sexta-feira passada, na véspera da guerra com o Irão, após o CEO da Anthropic, Dario Amodei, se recusar a recuar devido a preocupações de que os produtos da empresa poderiam ser usados para vigilância em massa de americanos ou armas autónomas.

Amodei afirmou numa declaração na quinta-feira que “não acreditamos que esta ação seja legalmente sólida, e não vemos outra opção senão contestá-la em tribunal.”

A declaração do Pentágono disse: “isto tem a ver com um princípio fundamental: o uso de tecnologia pelo exército para todos os fins legais. O exército não permitirá que um fornecedor se insira na cadeia de comando ao restringir o uso legal de uma capacidade crítica e colocar os nossos combatentes em risco.”

Amodei contrapôs que as exceções restritas que a Anthropic procurou para limitar a vigilância e as armas autónomas “relacionam-se a áreas de uso de alto nível, e não à tomada de decisões operacionais.”

Ele afirmou que houve “conversas produtivas” com o Pentágono nos últimos dias sobre se poderia continuar a usar o Claude ou estabelecer uma “transição suave” caso não fosse alcançado um acordo. Trump deu ao exército seis meses para eliminar o uso do Claude, que já está amplamente integrado em plataformas militares e de segurança nacional. Amodei disse que é uma prioridade garantir que os combatentes não fiquem “sem ferramentas importantes no meio de operações de combate de grande escala.”

Alguns contratantes militares já estavam a cortar laços com a Anthropic, uma estrela em ascensão na indústria tecnológica que vende o Claude a várias empresas e agências governamentais. A Lockheed Martin afirmou que irá “seguir a orientação do Presidente e do Departamento de Guerra” e procurar outros fornecedores de grandes modelos de linguagem.

“Esperamos impactos mínimos, pois a Lockheed Martin não depende de nenhum fornecedor único de LLM para qualquer parte do nosso trabalho,” disse a empresa.

Como o Departamento de Defesa interpretará o âmbito da designação de risco ainda não está claro. Amodei afirmou que uma notificação recebida pela Anthropic do Pentágono na quarta-feira mostra que ela se aplica apenas ao uso do Claude pelos clientes como uma “parte direta” dos seus contratos militares.

A Microsoft afirmou que os seus advogados estudaram a regra e que a empresa “pode continuar a trabalhar com a Anthropic em projetos não relacionados com defesa.”

Críticas à decisão do Pentágono

A decisão do Pentágono de aplicar uma regra destinada a abordar ameaças na cadeia de abastecimento por parte de adversários estrangeiros foi amplamente criticada. Os códigos federais definem risco na cadeia de abastecimento como um “risco de que um adversário possa sabotar, introduzir maliciosamente funções indesejadas ou de outra forma subverter” um sistema para o perturbar, degradar ou espionar.

A Senadora Kirsten Gillibrand, democrata de Nova Iorque e membro do Comité de Serviços Armados do Senado e do Comité de Inteligência do Senado, chamou-lhe de “um uso perigoso de uma ferramenta destinada a combater tecnologia controlada por adversários.”

“Esta ação imprudente é de visão curta, autodestrutiva, e um presente para os nossos adversários,” afirmou numa declaração escrita na quinta-feira.

Neil Chilson, antigo principal tecnólogo da Federal Trade Commission e atualmente líder de políticas de IA no Abundance Institute, disse que a decisão parece “uma ultrapassagem massiva que prejudicaria tanto o setor de IA dos EUA quanto a capacidade do exército de adquirir a melhor tecnologia para os combatentes americanos.”

Mais cedo no dia, um grupo de antigos responsáveis pela defesa e segurança nacional enviou uma carta aos legisladores americanos expressando “séria preocupação” com a designação.

“O uso desta autoridade contra uma empresa americana é uma grande desvio do seu propósito original e estabelece um precedente perigoso,” afirmou a carta, assinada por antigos responsáveis e especialistas em políticas, incluindo o ex-diretor da CIA, Michael Hayden, e líderes aposentados da Força Aérea, Exército e Marinha.

Eles acrescentaram que tal designação visa “proteger os Estados Unidos de infiltração por adversários estrangeiros — de empresas subordinadas a Pequim ou Moscovo, não de inovadores americanos que operam de forma transparente sob o Estado de Direito. Aplicar esta ferramenta para penalizar uma empresa dos EUA por recusar-se a remover salvaguardas contra vigilância doméstica em massa e armas totalmente autónomas é um erro de categoria, com consequências que vão muito além desta disputa.”

Anthropic vê aumento nas descargas de consumidores

Apesar de perder grandes parcerias com contratantes de defesa, a Anthropic registou um aumento nas descargas por parte de consumidores na última semana, devido ao apoio à sua postura moral. Mais de um milhão de pessoas inscreveram-se no Claude por dia esta semana, afirmou a empresa, ultrapassando o ChatGPT da OpenAI e o Gemini do Google como as principais aplicações de IA em mais de 20 países na loja de aplicações da Apple.

A disputa com o Pentágono também aprofundou a rivalidade amarga entre a Anthropic e a OpenAI, que começou quando ex-líderes da OpenAI, incluindo Amodei, fundaram a Anthropic em 2021.

Horas após o Pentágono punir a Anthropic na sexta-feira passada, a OpenAI anunciou um acordo para substituir efetivamente a Anthropic pelo ChatGPT em ambientes militares classificados.

A OpenAI afirmou que procurou proteções semelhantes contra vigilância doméstica e armas totalmente autónomas, mas posteriormente teve que alterar os seus acordos, levando o CEO Sam Altman a dizer que não deveria ter apressado um acordo que “parecia oportunista e descuidado.”

Amodei também expressou arrependimento pelo seu papel naquele “dia difícil para a empresa,” afirmando na quinta-feira que queria “pedir desculpa diretamente” por uma nota interna enviada à equipa da Anthropic que criticava o comportamento da OpenAI e sugeria que a Anthropic estava a ser punida por não dar “elogios de ditador” a Trump.

Junte-se a nós na Cimeira de Inovação no Local de Trabalho Fortune de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já chegou — e o manual antigo está a ser reescrito. Neste evento exclusivo e enérgico, os líderes mais inovadores do mundo irão reunir-se para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar