Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Início em Futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
A maior reunião de tecnologia do mundo está a falar sobre ‘lavagem de responsabilidade’: Aqui está o motivo pelo qual devemos nomeá-los como Palavras do Ano
Summer Yue não é a funcionária mais famosa da Meta. A diretora de “pesquisa de alinhamento e segurança de superinteligência” publica fotos dela a passear com o cão na praia e mensagens sobre testar a honestidade dos assistentes de IA. Ela tem um número modesto de seguidores nas redes sociais.
Vídeo Recomendado
Mas, por um dia em fevereiro, Yue tornou-se a pessoa mais falada na Meta. Não por lançar um produto inovador ou anunciar um avanço em IA agentic, mas por ter sido apanhada.
“Nada te humilha mais do que dizer ao teu OpenClaw, ‘Confirma antes de agir’ e ver a sua execução rápida a apagar a tua caixa de entrada,” escreveu Yue no X — uma publicação que já tem quase 10 milhões de visualizações. “Não consegui impedir que acontecesse pelo meu telemóvel. Tive que correr até ao meu Mac mini como se estivesse a desarmar uma bomba.”
OpenClaw é um “agente autónomo” — um produto de inteligência artificial que pode realizar tarefas de forma independente. Um favorito do Vale do Silício, promete ser o teu assistente administrativo constante, o “IA que realmente faz as coisas.” Dá-lhe acesso ao teu diário, emails, vida, e ele vai poupar-te tempo e stress, afirmam os desenvolvedores do produto. A primeira frase no site do OpenClaw diz: “Limpa a tua caixa de entrada, envia emails, gere o teu calendário, faz o check-in para voos.”
Yue admitiu ter cometido um “erro de principiante.” Testou o assistente numa pequena lista de emails “de brinquedo” e depois lançou-o na sua caixa de entrada inteira, que era demasiado grande para os prompts de guarda (como “Confirma comigo”) que tinha usado no piloto. Mas se até uma diretora de superinteligência na Meta tem dificuldades em navegar pelo mundo da IA agentic e dos “efeitos de compactação,” que esperança há para o resto de nós?
Leia mais: CEO da Qualcomm: ‘A resistência é inútil’ com a revolução móvel 6G a aproximar-se
É uma conversa vital, tão importante que, no Mobile World Congress desta semana em Barcelona — o maior evento de tecnologia do mundo — o erro de Yue foi debatido no palco principal.
“Claro que toda a gente aqui no Congresso Mundial tem falado sobre o OpenClaw e como podemos usar agentes,” disse Kate Crawford, professora de investigação na Universidade do Sul da Califórnia.
“Mas então vimos a chefe de segurança de IA da Meta usar o OpenClaw, e ela apagou toda a sua caixa de entrada. Essa é a responsável pela segurança na Meta. Portanto, se ela está a ter problemas, acho que todos nós temos que perguntar: ‘Como podemos garantir que estes sistemas estão realmente reforçados? Como podemos garantir que são rigorosamente testados? Como podemos garantir que podemos delegar neles de forma confiável?’ E esse é realmente o problema mais difícil de enfrentar, certo?”
Certo. Quando algo corre mal, quem é responsável? O utilizador? O desenvolvedor? A falta de regulamentação? Quando a realidade da IA entra em conflito com a promessa da IA, o que fazemos?
A caixa de entrada de Yue pode ser de extrema importância só para ela. Quando se trata da relação entre tecnologia e, por exemplo, a nossa saúde, ou, atenção, a defesa da nação — isso é uma questão muito diferente. Não há muito tempo, o Grok, o bot de IA da xAI, andava casualmente a “despir” imagens de mulheres e meninas, causando o repúdio de milhões. A ameaça de ações governamentais e lideradas pelo Estado finalmente levou a uma mudança de abordagem.
“Como é que realmente construímos responsabilidade?” perguntou Crawford. “Isto é o que todos queremos. Se vais começar a usar agentes para reservar voos, marcar consultas médicas e até atividades mais íntimas e confiáveis na tua vida diária, queres saber que a informação vai estar protegida.”
“Então, como é que testas isso? Como garantias que isso está a acontecer? Se olharmos para o que aconteceu nos últimos 10 anos no espaço tecnológico, infelizmente, vimos muita lavagem de responsabilidade — que é quando as empresas dizem: ‘Bem, eu não sei. Quer dizer, foi o algoritmo.’”
Isso é insuficiente. Crawford exige total transparência e uma auditoria do “treinamento de agentes,” um processo de ponta a ponta que revele o que correu mal e quem é responsável. As empresas de tecnologia devem ouvir e agir. Haverá um número crescente de Summer Yues por aí — e certamente isso significará muito mais do que alguns emails perdidos e uma publicação honesta no X.
Junte-se a nós numa conversa virtual do Fortune 500 Europe C-Suite, em parceria com a Syndio, sobre dominar as decisões de força de trabalho e a transparência salarial na era da IA. Destinado a líderes de RH globais e regionais, esta sessão explora como os CHROs estão a usar IA para tomar decisões salariais mais inteligentes, gerir riscos regulatórios e fortalecer a confiança na força de trabalho. Curado para CHROs e líderes sénior de RH. Registe-se já.