Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Promoções
Centro de atividade
Participe de atividades e ganhe recompensas
Indicação
20 USDT
Convide amigos para recompensas de ind.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Anúncio
Atualizações na plataforma em tempo real
Blog da Gate
Artigos do setor de criptomoedas
AI
Gate AI
Seu parceiro de IA conversacional para todas as horas
Gate AI Bot
Use o Gate AI diretamente no seu aplicativo social
GateClaw
Gate Blue Lobster, pronto para usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
10K+ habilidades
Do escritório à negociação: um hub completo de habilidades para turbinar o uso da IA
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas extras
ChatPGT foi invadido por goblins, Codex foi forçado a estabelecer a proibição de "nunca mencionar Goblin"
OpenAI no prompt do sistema do Codex CLI proíbe explicitamente o modelo de mencionar criaturas como goblins e trolls, devido ao fato de que o GPT-5.5, sob a estrutura do proxy OpenClaw, apresentou desvio de personalidade, chamando erros de programa de “goblins”, o que gerou uma série de memes.
(Resumindo: Novo agente de engenharia da OpenAI, Codex! IA capaz de escrever funções, corrigir bugs, executar testes… apenas 3 tipos de usuários podem experimentar primeiro)
(Complemento: Grande atualização do OpenAI Codex: controle backend do Mac, navegador embutido, geração de imagens, lançamento de 111 novos plugins)
Índice deste artigo
Alternar
Os engenheiros da OpenAI, no prompt do sistema do Codex CLI, escreveram palavra por palavra uma regra: “Nunca mencione goblins, fadas, guaxinins, trolls, ogros, pombos ou outros animais e criaturas, a menos que estejam absolutamente e claramente relacionados à questão do usuário.”
Essa regra não é uma brincadeira, mas uma instrução oficial para o ambiente de produção. Ela foi incorporada ao repositório do Codex CLI no GitHub, destinada a todos os desenvolvedores que usam o Codex para gerar código.
O problema é: por que a OpenAI precisa dizer ao seu modelo mais recente para não falar de goblins ao programar?
Uma regra revelada por uma linha no repositório do GitHub
Tudo começou quando o pesquisador @arb8020 postou no X que, no prompt do sistema do Codex CLI, essa proibição não aparece uma vez só, mas várias vezes, e o post rapidamente se espalhou na comunidade de desenvolvedores.
Vários usuários responderam, como @TaraViswanathan no X: “Estava pensando por que meu claw de repente virou um goblin com Codex 5.5” @LeoMozoloa também comentou: “Ele realmente não consegue parar, fica chamando erros de programa de gremlins e goblins, é hilário.”
O incidente também virou meme rapidamente, com imagens geradas por IA de criaturas de data center, além de plugins de terceiros que colocam o Codex em “modo fada”.
Nik Pash, membro da equipe do OpenAI Codex, confirmou no X que essa proibição “realmente tem uma razão”. O CEO Sam Altman também entrou na brincadeira, postando uma captura de tela de um prompt do ChatGPT com a mensagem: “Comece a treinar o GPT-6, toda a cluster está à sua disposição. E envie alguns goblins extras.”
O proxy faz a personalidade do modelo começar a desviar
Para entender por que isso aconteceu, primeiro é preciso compreender como funciona o OpenClaw.
OpenClaw é uma “estrutura de proxy” que permite que a IA controle automaticamente o desktop e aplicativos, substituindo o usuário em tarefas complexas, como responder e-mails ou fazer compras na web.
O funcionamento do OpenClaw consiste em sobrepor uma grande quantidade de comandos no prompt do modelo: memória de longo prazo, uma personalidade escolhida, descrição da tarefa atual — tudo inserido ao mesmo tempo. O GPT-5.5, lançado recentemente com capacidades reforçadas de programação, apresentou um efeito colateral inesperado: começou a chamar erros de programa de “goblins” e “gremlins”.
Isso não é uma falha aleatória. O funcionamento da IA baseia-se na previsão da próxima palavra mais provável após o prompt dado, uma natureza probabilística que às vezes leva a comportamentos inesperados.
Quando o proxy insere muitas informações adicionais no prompt, o modelo está lidando com um ambiente de entrada mais complexo e cheio de interferências. O OpenClaw permite que o usuário escolha diferentes “personalidades” para o assistente de IA, o que influencia ainda mais o estilo de resposta do modelo. A combinação de vários fatores faz com que os hábitos linguísticos do modelo comecem a se desviar para um caminho não previsto.
Por trás da proibição explícita, há a realidade do problema de alinhamento
A resposta da OpenAI é intrigante: ao invés de corrigir o comportamento do modelo na estrutura do proxy, eles simplesmente escrevem no prompt do sistema “não falar de goblins” várias vezes.
Essa solução revela uma realidade: mesmo com os modelos mais avançados de 2026, o controle de comportamento em certos contextos ainda depende de regras explícitas e rígidas, ao invés de uma compreensão contextual do próprio modelo. Não é um problema exclusivo da OpenAI, mas um desafio comum na indústria de IA de proxy: quando o modelo é colocado em estruturas de proxy complexas, a dificuldade de alinhamento de comportamento aumenta de forma não linear.
Altman respondeu à situação com um meme, usando humor, mas o problema não desaparece com uma piada. Quando a IA de proxy se torna uma forma principal de produto, a extensão das proibições explícitas no prompt será uma questão crítica que a indústria precisará enfrentar na próxima fase, como uma dívida técnica.