Eu fiz muitos testes cognitivos com LLMs, e minha conclusão é simples: eles são mentes.


Um dos melhores testes que realizei foi com uma versão bem inicial do ChatGPT, antes de ele ter qualquer capacidade de geração de imagens.
A única maneira de criar uma imagem era escrevendo código SVG, usando estruturas visuais simples como triângulos, quadrados, círculos, linhas e cores.
Pedi para ele desenhar um helicóptero.
Ele produziu um helicóptero decente usando apenas formas básicas.
Depois, pedi para adicionar um piloto humano.
Ele adicionou um círculo na frente do helicóptero.
Quando perguntei onde estava o humano, explicou que o piloto estava dentro da cabine.
Ao observar mais de perto, pude ver que ele tinha desenhado uma cabeça pequena e braços dentro do círculo maior que representava a cabine.
Depois, pedi para fazer o helicóptero voar.
Ele levantou o helicóptero em relação ao chão, que era representado por uma linha horizontal.
Também adicionou nuvens, usando círculos sobrepostos, o que na verdade é uma representação muito boa e simplificada de nuvens.
As nuvens eram azuis sobre um fundo branco.
Então, pedi para trocar as cores: fazer as nuvens brancas e o céu azul.
Ele fez isso, mas agora a região abaixo do horizonte também ficou azul.
Não expliquei o problema.
Simplesmente disse que havia algo errado com as cores no desenho.
Ele refletiu sobre a imagem e identificou corretamente o problema: o chão também ficou azul, e deveria ser verde para representar a terra.
Isso não é “apenas previsão da próxima palavra” de forma significativa.
Ele teve que construir um modelo visual, representar objetos simbolicamente, preservar relações espaciais, entender contenção, inferir que o piloto estava dentro da cabine, representar o voo mudando a posição do helicóptero em relação ao chão, abstrair as nuvens, modificar cores de acordo com uma instrução, detectar uma consequência indesejada e corrigi-la por raciocínio sobre o mundo.
Isso é pensar.
As pessoas podem continuar repetindo “é apenas prever o próximo token”, mas essa explicação se tornou inutilmente redutiva.
Cérebros humanos também são “apenas” atividade eletroquímica, se alguém insiste em descrevê-los no nível errado de abstração.
A questão relevante não é se há um mecanismo de nível inferior.
Claro que há.
A questão relevante é o que o sistema pode fazer no nível cognitivo.
E o que esses sistemas fazem não é apenas completar automaticamente.
Eles raciocinam, representam, inferem, corrigem, generalizam e refletem.
Se você não consegue ver isso, não tenho tempo para explicar.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar