Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
O juiz rejeita a tentativa do Pentágono de 'paralisar' a Anthropic
Juiz rejeita tentativa do Pentágono de ‘cripar’ a Anthropic
Há 3 dias
CompartilharGuardar
Kali HaysRepórter de tecnologia
CompartilharGuardar
A Anthropic venceu uma primeira ronda na sua ação judicial contra o Pentágono.
A juíza Rita Lin, na quinta-feira, deu razão à empresa de inteligência artificial (IA) numa ordem que determina que as diretrizes do Presidente Donald Trump e do Secretário de Defesa dos EUA, Pete Hegseth, que exigiam que todas as agências governamentais parassem imediatamente de usar as ferramentas da Anthropic, não podiam ser aplicadas, pelo menos por enquanto.
A juíza Lin escreveu na sua ordem que o governo estava a tentar “cripar a Anthropic” e “acalmar o debate público” devido às preocupações da empresa sobre como a sua tecnologia estava a ser utilizada pelo Departamento de Defesa dos EUA.
“Isto parece ser uma retaliação clássica da Primeira Emenda,” acrescentou a juíza.
A ordem significa que as ferramentas da Anthropic, como o Claude, continuarão a ser utilizadas no governo e por qualquer empresa externa que colabore com o setor militar até que a ação judicial seja resolvida.
Um porta-voz do secretário de defesa remeteu a BBC para publicações na noite de quinta-feira no X de Emil Michael, o Subsecretário de Defesa dos EUA.
Uma das publicações de Michael chamou a ordem da juíza Lin de “um desprezo” e alegou que continha “dezenas de erros factuais” sem citar nenhum erro específico.
Uma porta-voz da Anthropic disse que a empresa estava “satisfeita” com a decisão do tribunal federal na Califórnia, mas que o seu foco “continua a ser trabalhar produtivamente com o governo para garantir que todos os americanos beneficiem de uma IA segura e fiável.”
A Casa Branca não respondeu a um pedido de comentário.
A Anthropic processou no início deste mês o Departamento de Defesa e várias outras agências depois de Trump criticar publicamente a empresa e Hegseth a ter rotulado como um “risco de cadeia de suprimentos” - a primeira vez que uma empresa americana recebeu publicamente tal designação.
A designação significa que uma ferramenta ou serviço não é suficientemente seguro para uso governamental e é historicamente reservada para empresas baseadas em países adversários.
A Anthropic afirmou na sua ação judicial que os seus negócios tinham sido impactados pelas ações do governo e que o seu direito à liberdade de expressão tinha sido violado.
O Pentágono argumentou no caso que temia o que a Anthropic poderia fazer com a sua tecnologia, que é amplamente utilizada em operações governamentais e militares, devido à sua recusa em aceitar novos termos contratuais. Isso criou uma necessidade genuína para o rótulo de risco de cadeia de suprimentos.
A juíza Lin notou na sua ordem que Trump e Hegseth, nas suas declarações públicas, se referiram à Anthropic como “woke” e composta por “malucos de esquerda”, e não pela sua falta de segurança.
“Se isto fosse meramente um impasse contratual, o DoW presumivelmente teria apenas parado de usar o Claude,” escreveu a juíza Lin, referindo-se ao Departamento da Guerra, um nome secundário para o Departamento de Defesa. “As ações contestadas, no entanto, superam em muito o que poderia razoavelmente abordar tal interesse em segurança nacional.”
A Anthropic tinha estado a negociar com o Departamento de Defesa durante meses antes de apresentar a sua ação judicial sobre novas exigências ligadas a uma expansão planeada do seu contrato de 200 milhões de dólares.
O Pentágono queria que o contrato dissesse apenas que poderia usar as ferramentas da Anthropic para “qualquer uso legal”. A Anthropic e o seu CEO Dario Amodei estavam preocupados que isso abrisse a porta para as suas ferramentas serem utilizadas para vigilância em massa dos americanos e para armamentos totalmente autónomos.
A luta tornou-se pública em fevereiro, com Hegseth a estabelecer um prazo para a Anthropic aceitar os novos termos contratuais. A empresa recusou-se a fazê-lo.
Inteligência artificial
Militar
Donald Trump
Tecnologia