Recentemente estou lendo um livro de 165 páginas. O autor Leopold Aschenbrenner, previu com precisão há dois anos as tendências atuais do AI.


Ele foi dispensado pela OpenAI em abril de 2024, e em junho escreveu este livro "Situational Awareness", que na essência é um documento de captação de recursos.
Em setembro, abriu seu próprio fundo de hedge. Este fundo cresceu de mais de 200 milhões de dólares em um ano para 5,5 bilhões, um aumento de 24 vezes.
O retorno líquido no primeiro semestre de 2025 foi de 47%.
Conforme eu lia, comecei a pensar: com que direito?
Com que direito um jovem de 22 anos consegue, em 2024, escrever sobre o mundo de hoje?
Consegue ver o futuro porque está na sala onde ele está sendo criado.
No círculo de São Francisco, na equipe de Superalignment da OpenAI, trabalhando diretamente sob o chefe de ciência Ilya Sutskever.
Este livro é uma homenagem a Ilya.
Cada frase que ele escreveu há dois anos, hoje, ao revisitar, quase se realiza uma a uma.
Ele diz que, no curto prazo, o que mais falta na AI não são algoritmos, mas poder de cálculo, memória HBM, centros de dados, energia.
Ele afirma que o verdadeiro gargalo está na embalagem avançada CoWoS.
Ele diz que a rede elétrica dos EUA será a primeira a travar para todos.
Ele prevê a emergência de um "cluster de trilhões de dólares".
Mais tarde, esses pontos de vista se tornaram manchetes.
OpenAI nomeou esse cluster de Stargate.
Mas tudo isso ainda é apenas um aperitivo.
No livro, ele escreve uma frase:
"Em 2027, a AGI (Inteligência Artificial Geral) chegará."
A lógica é a seguinte: nos últimos quatro anos, a AI evoluiu de um "pré-escolar" GPT-2 para um "estudante do ensino médio inteligente" GPT-4.
Daqui a quatro anos, ele diz, a AI será capaz de substituir pesquisadores humanos, treinando ela mesma.
Uma vez que a AI possa estudar a si mesma, ela completará em um ano as iterações de algoritmos que levariam uma década para os humanos.
A "explosão de inteligência" começará nesse momento.
Até lá, os humanos não entenderão mais o que a AI está fazendo.
O código que ela escreve, as decisões que toma.
Como saber se ela não está nos enganando?
Leopold, no livro, propõe três remédios.
1. Supervisão fraca e forte.
Usar uma AI com capacidade menor, mas compreensível pelos humanos, para supervisionar uma AI muito mais forte.
A aposta é que a AI mais fraca ainda consegue detectar se a mais forte está fazendo besteira.
Leopold é coautor dessa tese.
2. Debate entre AIs.
Fazer várias AIs se confrontarem, apontando erros, revelando mentiras.
Os humanos atuam como juízes silenciosos, usando as inconsistências para identificar quem está mentindo.
3. Interpretabilidade mecânica.
Durante o treinamento, remover parâmetros perigosos.
Depois, abrir a "cabeça" da AI para entender o que ela está pensando.
Criar um "detector de mentiras de AI", buscando a "direção da verdade" dentro dela.
Leopold também admite que essa é uma tarefa de nível moonshot, extremamente difícil.
Ao chegar aqui, entendi por que ele terminou usando uma foto de Oppenheimer.
Ele está escrevendo isso como uma nova versão do Projeto Manhattan.
Ele mesmo admite que essas três estratégias, no fundo, são apenas "gambiarras".
Nenhuma resolve de verdade o problema.
São apostas de que a humanidade aguentará até o dia em que o desafio de alinhamento seja terceirizado para a própria AI.
O que estamos fazendo agora não é "resolver a segurança da AI", mas "esperar que a AI resolva a segurança da AI por nós".
Parece uma relação amorosa meio torta, não acha?
Sabemos que algo está errado, mas ainda assim apostamos que ela vai mudar.
Voltando ao investimento, a parte mais valiosa deste livro não é o ano específico de 2027 para a AGI.
A margem de erro é grande — pode ser um ano mais tarde ou meio ano mais cedo.
O mais valioso é que ele explica claramente toda a cadeia de gargalos na indústria de AI ao longo de uma década:
Energia > Embalagem avançada / HBM > Poder de cálculo > Algoritmos > Aplicações.
Quanto mais acima, mais escasso; quanto mais abaixo, mais congestionado.
Leopold mesmo, com dinheiro de verdade, verificou isso pessoalmente no mercado aberto.
Ao fechar o livro, pensei:
Alguns livros, se lidos um ano antes, podem mudar a vida.
Ainda bem, ainda não é tarde.
“See you in the desert, friend.”
Ver original
post-image
post-image
post-image
post-image
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar