Recentemente estou lendo um livro de 165 páginas. O autor Leopold Aschenbrenner, previu com precisão há dois anos as tendências atuais do AI.


Ele foi dispensado pela OpenAI em abril de 2024, e em junho escreveu este livro "Situational Awareness", que na essência é um documento de captação de recursos.
Em setembro, abriu seu próprio fundo de hedge. Este fundo cresceu de mais de 200 milhões de dólares em um ano para 5,5 bilhões, um aumento de exatos 24 vezes.
No primeiro semestre de 2025, retorno líquido de 47%.
Conforme eu lia, comecei a pensar: com que direito?
Com que direito um jovem de 22 anos consegue, em 2024, escrever sobre o mundo de hoje?
Consegue ver o futuro porque está na sala onde ele está sendo criado.
No círculo de São Francisco, na equipe Superalignment da OpenAI, trabalhando diretamente sob o chefe de ciência Ilya Sutskever.
Este livro é uma homenagem a Ilya.
Cada frase que ele escreveu há dois anos, hoje, ao revisitar, quase se realiza uma a uma.
Ele diz que, no curto prazo, o AI não sofre de falta de algoritmos, mas de capacidade de cálculo, memória HBM, centros de dados e energia.
Ele afirma que o verdadeiro gargalo está na embalagem avançada CoWoS.
Ele diz que a rede elétrica dos EUA será a primeira a travar a todos.
Ele prevê o surgimento de um "cluster de trilhões de dólares".
Depois, esses pontos de vista se tornaram manchetes.
OpenAI nomeou esse cluster de Stargate.
No segundo semestre de 2025, ele silenciosamente aumentou sua posição em fazendas de mineração de Bitcoin.
Não por acreditar na valorização da moeda, mas porque percebeu que as fábricas de mineração já possuem contratos de energia, centros de dados prontos e sistemas de resfriamento de alta potência.
Os recursos escassos na era do AI, todas as fazendas de Bitcoin já possuem.
Os mineradores vão se transformar em proprietários de poder de cálculo de AI.
Sua lógica:
Primeiro, o AI falta energia.
Segundo, quem controla a energia é o mais escasso.
Terceiro, aqueles que já controlam energia, mas são desprezados pelo mercado, são minas de ouro.
Mas tudo isso ainda é apenas um aperitivo.
Ele escreve no livro uma frase:
"Em 2027, a AGI (Inteligência Artificial Geral) chegará."
A lógica é assim: nos últimos quatro anos, o AI evoluiu de um "pré-escolar" GPT-2 para um "estudante do ensino médio inteligente" GPT-4.
Daqui a quatro anos, ele diz, o AI será capaz de substituir pesquisadores humanos, treinando a si próprio.
Uma vez que o AI possa estudar a si mesmo, a década de avanços algoritmos humanos será concluída em um ano.
A "explosão de inteligência" começará nesse momento.
Até lá, os humanos não entenderão mais o que o AI está fazendo.
Seu código, suas decisões.
Como saber se ele não está nos enganando?
Leopold propõe três remédios no livro:
1. Supervisão fraca, forte.
Usar um AI mais fraco, compreensível pelos humanos, para supervisionar o AI mais forte, muito além do humano.
A aposta é que o AI mais fraco ainda consegue detectar as maldades do mais forte.
Leopold é coautor dessa tese.
2. Debates entre AIs.
Fazer vários AIs se confrontarem, apontando erros, revelando mentiras.
Os humanos apenas como juízes silenciosos, usando as inconsistências para identificar quem está mentindo.
3. Interpretabilidade mecânica.
Durante o treinamento, remover parâmetros perigosos.
Depois, abrir a "cabeça" do AI e ver o que ele está pensando.
Criar um "detector de mentiras de AI", buscando a "verdade" interna.
Leopold também admite que essa é uma tarefa de nível moonshot, extremamente difícil.
Ao chegar aqui, entendi por que ele terminou com uma foto de Oppenheimer.
Ele está escrevendo como se fosse o novo Manhattan Project.
Ele mesmo admite que essas três estratégias, no fundo, são apenas "gambiarra".
Nenhuma resolve de verdade o problema.
São apostas de que a humanidade aguente até o dia em que o desafio de alinhamento seja terceirizado para o próprio AI.
O que estamos fazendo agora não é "resolver a segurança do AI", mas "esperar que o AI resolva a segurança do AI" por nós.
Parece uma relação amorosa meio torta, não acha?
Sabemos onde está o problema, mas ainda assim apostamos que ele vai mudar.
Voltando ao investimento, a parte mais valiosa do livro não é o ano específico de 2027 para a AGI.
A margem de erro é grande, pode atrasar um ano ou adiantar seis meses.
O que realmente importa é que ele explica claramente toda a cadeia de gargalos na indústria de AI ao longo de uma década:
Energia > Embalagem avançada / HBM > Capacidade de cálculo > Algoritmos > Aplicações.
Quanto mais alto, mais escasso; quanto mais baixo, mais congestionado.
Leopold mesmo, usando dinheiro de verdade, verificou isso no mercado aberto.
Ao fechar o livro, pensei:
Alguns livros, se lidos um ano antes, podem mudar a vida.
Ainda bem, porque agora também não é tarde.
"See you in the desert, friend."
BTC0,48%
Ver original
post-image
post-image
post-image
post-image
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 1
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
GateUser-e7da0219
· 14h atrás
Ok
Ver originalResponder0
  • Marcar