O Pentágono Exclusivo pressiona empresas de IA para expandirem redes classificadas, dizem fontes
FOTO DE ARQUIVO: O logótipo do Pentágono é visto atrás do púlpito na sala de briefing do Pentágono em Arlington, Virgínia, EUA, 8 de janeiro de 2020. REUTERS/Al Drago/Foto de arquivo · Reuters
Por David Jeans e Deepa Seetharaman
Qui, 12 de fevereiro de 2026 às 9:45 GMT + 9 3 minutos de leitura
Por David Jeans e Deepa Seetharaman
11 de fevereiro (Reuters) - O Pentágono está a pressionar as principais empresas de IA, incluindo a OpenAI e a Anthropic, a disponibilizarem as suas ferramentas de inteligência artificial em redes classificadas, sem muitas das restrições padrão que as empresas aplicam aos utilizadores.
Durante um evento na Casa Branca na terça-feira, o Diretor de Tecnologia do Pentágono, Emil Michael, disse aos executivos tecnológicos que as forças armadas pretendem disponibilizar os modelos de IA tanto em domínios não classificados como classificados, segundo duas pessoas familiarizadas com o assunto.
O Pentágono está “a avançar para implementar capacidades de IA de vanguarda em todos os níveis de classificação”, disse à Reuters um responsável que pediu anonimato.
É o mais recente desenvolvimento em negociações em curso entre o Pentágono e as principais empresas de IA generativa sobre como os EUA irão usar a IA num futuro campo de batalha já dominado por enxames autónomos de drones, robôs e ciberataques.
Os comentários de Michael também deverão intensificar um debate já polémico sobre o desejo das forças armadas de usar IA sem restrições e a capacidade das empresas tecnológicas de estabelecer limites sobre a forma como as suas ferramentas são implementadas.
Muitas empresas de IA estão a desenvolver ferramentas personalizadas para as forças armadas dos EUA, a maioria das quais está disponível apenas em redes não classificadas normalmente usadas para administração militar. Apenas uma empresa de IA – a Anthropic – está disponível em contextos classificados através de terceiros, mas o governo continua vinculado às políticas de utilização da empresa.
Redes classificadas são usadas para lidar com uma vasta gama de trabalhos mais sensíveis que podem incluir planeamento de missões ou alvos de armas. A Reuters não conseguiu determinar como ou quando o Pentágono planeava implementar chatbots de IA em redes classificadas.
Os oficiais militares esperam aproveitar o poder da IA para sintetizar informação e ajudar a moldar decisões. Mas, embora estas ferramentas sejam poderosas, podem cometer erros e até inventar informações que podem parecer plausíveis à primeira vista. Tais erros em contextos classificados podem ter consequências mortais, dizem investigadores de IA.
As empresas de IA procuraram minimizar os riscos negativos dos seus produtos, criando salvaguardas nos seus modelos e pedindo aos clientes que cumpram certas diretrizes. Mas os responsáveis do Pentágono têm protestado com tais restrições, argumentando que deveriam poder implementar ferramentas comerciais de IA desde que cumpram a lei americana.
Esta semana, a OpenAI chegou a um acordo com o Pentágono para que as forças armadas possam usar as suas ferramentas, incluindo o ChatGPT, numa rede não classificada chamada , que foi disponibilizada a mais de 3 milhões de funcionários do Departamento de Defesa. Como parte do acordo, a OpenAI concordou em remover muitas das suas restrições típicas para os utilizadores, embora ainda existam algumas limitações.
A história continua
A Google e a xAI da Alphabet já fizeram acordos semelhantes anteriormente.
Num comunicado, a OpenAI afirmou que o acordo desta semana é específico para uso não classificado através da genai.mil. Expandir esse acordo exigiria um acordo novo ou modificado, disse um porta-voz.
Discussões semelhantes entre o rival da OpenAI, Anthropic, e o Pentágono, têm sido significativamente mais controversas, segundo a Reuters reportou anteriormente. Executivos da Anthropic disseram aos responsáveis militares que não querem que a sua tecnologia seja usada para atingir armas de forma autónoma e realizar vigilância interna dos EUA. Os produtos da Anthropic incluem um chatbot chamado Claude.
“A Anthropic está comprometida em proteger a liderança americana em IA e ajudar o governo dos EUA a combater ameaças estrangeiras, dando aos nossos combatentes acesso às capacidades de IA mais avançadas”, disse um porta-voz da Anthropic. “O Claude já é amplamente utilizado em missões de segurança nacional pelo governo dos EUA e estamos em discussões produtivas com o Departamento de Guerra sobre formas de continuar esse trabalho.”
O Presidente Donald Trump ordenou ao Departamento de Defesa que se renomeasse para Departamento de Guerra, uma mudança que exigirá ação do Congresso.
(Reportagens de David Jeans em Nova Iorque e Deepa Seetharaman em São Francisco; Edição de Kenneth Li e Matthew Lewis)
Termos e Política de Privacidade
Painel de Privacidade
Mais Informações
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Exclusivo - Pentagon está a pressionar empresas de IA para expandirem nas redes classificadas, dizem fontes
O Pentágono Exclusivo pressiona empresas de IA para expandirem redes classificadas, dizem fontes
FOTO DE ARQUIVO: O logótipo do Pentágono é visto atrás do púlpito na sala de briefing do Pentágono em Arlington, Virgínia, EUA, 8 de janeiro de 2020. REUTERS/Al Drago/Foto de arquivo · Reuters
Por David Jeans e Deepa Seetharaman
Qui, 12 de fevereiro de 2026 às 9:45 GMT + 9 3 minutos de leitura
Por David Jeans e Deepa Seetharaman
11 de fevereiro (Reuters) - O Pentágono está a pressionar as principais empresas de IA, incluindo a OpenAI e a Anthropic, a disponibilizarem as suas ferramentas de inteligência artificial em redes classificadas, sem muitas das restrições padrão que as empresas aplicam aos utilizadores.
Durante um evento na Casa Branca na terça-feira, o Diretor de Tecnologia do Pentágono, Emil Michael, disse aos executivos tecnológicos que as forças armadas pretendem disponibilizar os modelos de IA tanto em domínios não classificados como classificados, segundo duas pessoas familiarizadas com o assunto.
O Pentágono está “a avançar para implementar capacidades de IA de vanguarda em todos os níveis de classificação”, disse à Reuters um responsável que pediu anonimato.
É o mais recente desenvolvimento em negociações em curso entre o Pentágono e as principais empresas de IA generativa sobre como os EUA irão usar a IA num futuro campo de batalha já dominado por enxames autónomos de drones, robôs e ciberataques.
Os comentários de Michael também deverão intensificar um debate já polémico sobre o desejo das forças armadas de usar IA sem restrições e a capacidade das empresas tecnológicas de estabelecer limites sobre a forma como as suas ferramentas são implementadas.
Muitas empresas de IA estão a desenvolver ferramentas personalizadas para as forças armadas dos EUA, a maioria das quais está disponível apenas em redes não classificadas normalmente usadas para administração militar. Apenas uma empresa de IA – a Anthropic – está disponível em contextos classificados através de terceiros, mas o governo continua vinculado às políticas de utilização da empresa.
Redes classificadas são usadas para lidar com uma vasta gama de trabalhos mais sensíveis que podem incluir planeamento de missões ou alvos de armas. A Reuters não conseguiu determinar como ou quando o Pentágono planeava implementar chatbots de IA em redes classificadas.
Os oficiais militares esperam aproveitar o poder da IA para sintetizar informação e ajudar a moldar decisões. Mas, embora estas ferramentas sejam poderosas, podem cometer erros e até inventar informações que podem parecer plausíveis à primeira vista. Tais erros em contextos classificados podem ter consequências mortais, dizem investigadores de IA.
As empresas de IA procuraram minimizar os riscos negativos dos seus produtos, criando salvaguardas nos seus modelos e pedindo aos clientes que cumpram certas diretrizes. Mas os responsáveis do Pentágono têm protestado com tais restrições, argumentando que deveriam poder implementar ferramentas comerciais de IA desde que cumpram a lei americana.
Esta semana, a OpenAI chegou a um acordo com o Pentágono para que as forças armadas possam usar as suas ferramentas, incluindo o ChatGPT, numa rede não classificada chamada , que foi disponibilizada a mais de 3 milhões de funcionários do Departamento de Defesa. Como parte do acordo, a OpenAI concordou em remover muitas das suas restrições típicas para os utilizadores, embora ainda existam algumas limitações.
A Google e a xAI da Alphabet já fizeram acordos semelhantes anteriormente.
Num comunicado, a OpenAI afirmou que o acordo desta semana é específico para uso não classificado através da genai.mil. Expandir esse acordo exigiria um acordo novo ou modificado, disse um porta-voz.
Discussões semelhantes entre o rival da OpenAI, Anthropic, e o Pentágono, têm sido significativamente mais controversas, segundo a Reuters reportou anteriormente. Executivos da Anthropic disseram aos responsáveis militares que não querem que a sua tecnologia seja usada para atingir armas de forma autónoma e realizar vigilância interna dos EUA. Os produtos da Anthropic incluem um chatbot chamado Claude.
“A Anthropic está comprometida em proteger a liderança americana em IA e ajudar o governo dos EUA a combater ameaças estrangeiras, dando aos nossos combatentes acesso às capacidades de IA mais avançadas”, disse um porta-voz da Anthropic. “O Claude já é amplamente utilizado em missões de segurança nacional pelo governo dos EUA e estamos em discussões produtivas com o Departamento de Guerra sobre formas de continuar esse trabalho.”
O Presidente Donald Trump ordenou ao Departamento de Defesa que se renomeasse para Departamento de Guerra, uma mudança que exigirá ação do Congresso.
(Reportagens de David Jeans em Nova Iorque e Deepa Seetharaman em São Francisco; Edição de Kenneth Li e Matthew Lewis)
Termos e Política de Privacidade
Painel de Privacidade
Mais Informações