Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Casa Branca AI, o czar da criptografia David Sacks deixa o cargo e ataca: a codificação empresarial da Anthropic é muito boa, mas faz negócios com o pânico regulatório
Ex-CEO da Casa Branca, o czar da IA e criptomoedas David Sacks faz sua primeira análise pública sobre a indústria de IA após deixar o cargo, no All-In Podcast, abordando de forma ambivalente: por um lado elogia a Anthropic por sua diferenciação através da demanda empresarial por codificação e pelo crescimento de ARR que confirma seu modelo; por outro, critica diretamente a Anthropic por jogar com “captura regulatória”, promovendo um sistema de permissão obrigatória que prejudica startups e alerta que a obsessão dos EUA com o “pessimismo em IA” pode levar a uma derrota na competição com a China.
(Preâmbulo: o ex-estrategista de Trump e czar da criptomoeda David Sacks deixou a Casa Branca após 130 dias no cargo, com várias legislações pendentes)
(Complemento: Michael Burry, famoso por apostas contrárias, afirmou que a Palantir é apenas uma empresa de SaaS de baixa margem! A Anthropic está engolindo ela)
Índice do artigo
Alternar
Após exatamente 25 dias de sua saída da Casa Branca, David Sacks finalmente se manifesta — não sobre políticas, mas sobre a lógica de negócios da indústria de IA. No episódio “Anthropic’s Generational Run, OpenAI Panics, AI Moats” do All-In Podcast, sua análise aponta de forma contundente as contradições e problemas da Anthropic.
Sacks, que atuou como “czar da IA e criptomoedas” no governo de Trump por 130 dias, deixou o cargo em 26 de março de 2026, passando a co-presidir o Comitê de Ciência, Tecnologia e Inovação (PCAST). Sua primeira manifestação pública como analista de setor, opinando abertamente sobre o modelo de negócios das empresas de IA, já é uma notícia em si.
Anthropic encontrou o financiamento certo
Sacks elogia de forma rara o modelo de negócios da Anthropic, resumindo sua tese em três palavras: “coding certo.”
Ele afirma no All-In Podcast que a aposta da Anthropic na geração de código atinge diretamente a dor principal do orçamento de TI das empresas. Quando uma corporação compra ferramentas de IA, o motivo mais convincente para convencer o CFO a liberar fundos não é “assistentes mais inteligentes”, mas “aumento de eficiência dos engenheiros e redução de custos de mão de obra”. O desempenho forte do Claude em cenários de codificação ajudou a construir rapidamente uma reputação entre clientes corporativos.
Dados sustentam essa avaliação: a receita anualizada (ARR) da Anthropic ultrapassou 30 bilhões de dólares, superando pela primeira vez os aproximadamente 25 bilhões da OpenAI; só em fevereiro, o ARR cresceu 6 bilhões de dólares em um mês; clientes corporativos com contratos acima de 1 milhão de dólares passaram de 500 para mais de 1.000. Sacks conclui que a transformação da Anthropic em uma empresa voltada ao mercado corporativo não é uma surpresa, mas resultado de uma estratégia clara.
Ele também menciona que a Anthropic está expandindo ativamente suas funcionalidades de agentes, elevando o Claude de uma ferramenta de perguntas e respostas para um agente autônomo capaz de executar tarefas, alinhando-se às próximas demandas do mercado empresarial por IA.
Comparando com OpenAI: a ressaca da expansão de consumo
A avaliação de Sacks sobre a OpenAI traz um tom de “eu já tinha avisado”.
Ele acredita que, nos últimos anos, a OpenAI gastou pesado no mercado de consumo — aplicações GPT, geração de vídeos com Sora, assinatura do ChatGPT — tentando construir uma marca popular. Mas esse caminho é caro, com retorno lento, forçando a OpenAI a voltar sua atenção para o mercado empresarial, prometendo aos investidores um retorno mínimo de 17,5% para manter a confiança.
No podcast, Sacks explica que o problema atual da OpenAI é que, embora sua presença no consumo seja forte, sua base de negócios não é tão sólida quanto a do setor corporativo. A Anthropic, ao evitar esse caminho, conseguiu avançar mais rapidamente.
“Captura regulatória” e criação de pânico
Porém, a análise de Sacks não é só elogiosa. Enquanto elogia o modelo de negócios da Anthropic, ele critica duramente sua postura política.
Ele usa a expressão “estratégia sofisticada de captura regulatória baseada no medo” para descrever a tática de lobby da Anthropic. A “captura regulatória” refere-se à participação ativa na formulação de regras, moldando-as de modo a favorecer seus interesses, apresentando regulações como benefícios públicos, mas na verdade servindo aos objetivos comerciais da empresa.
Sua crítica específica é à proposta de “regime de permissão obrigatória” — exigir que modelos de IA obtenham autorização governamental antes de serem implantados. Sacks argumenta que, se essa regra for implementada, ela terá impacto limitado para grandes empresas como a Anthropic, que possuem recursos para cumprir regulamentos complexos, mas criará uma barreira significativa para startups menores, dificultando a inovação e a competição.
Em outras palavras, ele acusa: enquanto a Anthropic usa a narrativa de “segurança de IA” para promover políticas, ela também se beneficia ao atrasar seus concorrentes.
Questionando Mythos: ameaça real ou só um boato?
Essa crítica se estende a outro episódio do All-In, “Anthropic’s $30B Ramp, Mythos Doomsday”, onde o tema é um evento recente.
A equipe de pesquisa de segurança da Anthropic divulgou estudos sobre o Mythos, um modelo que, alegadamente, consegue identificar vulnerabilidades críticas em sistemas mainstream em poucas horas, gerando debate na indústria. Sacks questiona: isso é uma avaliação técnica real ou uma tática de medo — um “galope do frango” (Chicken Little), ou seja, uma narrativa de pânico de que “o céu está caindo”?
Ele não descarta a possibilidade de riscos reais, mas afirma que, se esse tipo de narrativa for usada para impulsionar regulações, ela deve passar por uma análise externa mais rigorosa, e não ser uma autodeclaração da própria Anthropic.
O pessimismo em IA é uma “autoagressão” dos EUA
Sacks amplia sua crítica ao enquadrar o debate na geopolítica. Ele alerta que o excesso de pessimismo em IA nos EUA é uma forma de “autoagressão”.
Seu raciocínio é que, entre China e EUA, há uma corrida de IA. Os EUA ainda lideram, mas se gastarem muita energia regulatória internalizando o medo, atrasando a inovação, podem deixar a China alcançar. Essa postura, que foi a base de sua atuação como “czar da IA” na Casa Branca, agora é expressa de forma mais direta, sem o peso político.
Opiniões do setor
A análise de Sacks revela o verdadeiro eixo de competição na indústria de IA — não é só qual modelo é mais avançado, mas como a postura regulatória, a penetração no mercado e a disputa entre China e EUA se entrelaçam.
O sucesso da Anthropic no mercado corporativo — crescimento de clientes, ARR elevado, foco em codificação — é evidente. Mas sua influência política e sua estratégia de políticas de segurança de IA, que também beneficiam seus negócios, merecem atenção.
Para startups de IA em Taiwan e na Ásia, o risco de uma “regulação de permissão obrigatória” é relevante: se os EUA adotarem esse caminho, os obstáculos para implantação transfronteiriça só aumentarão, dificultando a expansão internacional.