'Momento de Perigo': CEO da Anthropic alerta sobre janela de risco cibernético enquanto IA descobre falhas de software

Resumidamente

  • Anthropic diz que sua IA descobriu dezenas de milhares de vulnerabilidades de software.
  • O CEO Dario Amodei alertou que há uma janela de 6 a 12 meses para corrigi-las.
  • Críticos dizem que os riscos podem estar exagerados mesmo com o crescimento das preocupações de segurança.

Uma discussão entre o CEO da Anthropic, Dario Amodei, e o CEO do JPMorgan Chase, Jamie Dimon, na terça-feira, focou na crescente ameaça de cibersegurança representada pela inteligência artificial, à medida que ela identifica vulnerabilidades mais rápido do que as organizações podem corrigi-las. No evento de quase duas horas ligado ao avanço da Anthropic nos serviços financeiros, onde revelou agentes de IA para tarefas como apresentações, revisão de lucros e trabalho de conformidade, Amodei afirmou que pode haver uma janela de seis a 12 meses para resolver dezenas de milhares de falhas descobertas pelo modelo Mythos da empresa antes que capacidades semelhantes se tornem mais amplamente disponíveis. “O perigo é apenas um aumento enorme na quantidade de vulnerabilidades, na quantidade de violações, no dano financeiro causado por ransomware em escolas, hospitais, sem falar dos bancos,” disse Amodei.

As últimas declarações de Amodei seguem testes anteriores com a Mozilla, quando uma versão inicial do Mythos identificou 271 vulnerabilidades no navegador Firefox em uma única passagem, mostrando como a IA pode escanear grandes bases de código muito mais rápido do que pesquisadores humanos.  A Anthropic afirmou que o modelo pode descobrir milhares de fraquezas anteriormente desconhecidas em softwares amplamente utilizados. Muitas permanecem não divulgadas porque ainda não foram corrigidas, deixando falhas não resolvidas. “Se anunciarmos algo sem que esteja corrigido, os maus atores irão explorá-lo,” disse Amodei.

Em testes controlados, Mythos completou simulações de ataques de rede em múltiplas etapas sem intervenção humana, demonstrando a capacidade de passar de identificar fraquezas para explorá-las. A Anthropic restringiu o modelo a um pequeno grupo de parceiros sob o Projeto Glasswing, com o objetivo de corrigir vulnerabilidades antes que ferramentas semelhantes se tornem amplamente disponíveis. Pesquisadores mostraram que elementos da capacidade do Mythos podem ser reproduzidos usando modelos existentes e técnicas de código aberto, sugerindo que ferramentas semelhantes poderiam se espalhar mais rápido do que o esperado. Os avisos têm gerado ceticismo dentro da indústria. Em abril, o CEO da OpenAI, Sam Altman, disse que as preocupações com o Mythos podem estar exageradas e sugeriu que a Anthropic está usando “marketing baseado no medo” para enquadrar os riscos e justificar a limitação do acesso à tecnologia. “Você pode justificar isso de várias maneiras, e algumas delas são reais, como a existência de preocupações legítimas de segurança,” disse Altman. “Mas se o que você quer é algo como ‘precisamos de controle da IA, só nós, porque somos as pessoas confiáveis,’ acho que o marketing baseado no medo é provavelmente a maneira mais eficaz de justificar isso.” Mesmo com essa resistência, apesar de uma disputa pública com a Anthropic, o governo dos EUA estaria usando o Claude Mythos para escanear redes classificadas em busca de vulnerabilidades e testar suas capacidades de cibersegurança, de acordo com Axios. Embora ele não tenha abordado a batalha legal em andamento, Amodei afirmou que a Anthropic é “benéfica para este país.” “Acredito que a visão da Anthropic é a mesma de sempre. Em termos de politização, é o ponto que fiz sobre ser eficiente, sistemática e justa para todos,” disse Amodei. “O propósito das leis e de não fazer as coisas de forma improvisada é que todas as empresas sejam, pelo menos em princípio—sei que na prática é mais complicado—tratadas da mesma maneira, e devemos aspirar a isso mesmo que nunca vá acontecer perfeitamente assim.” Amodei caracterizou o momento como uma janela estreita para ação, alertando que a rapidez com que as organizações respondem pode determinar se os riscos aumentam ou são controlados.

“Este é um momento de perigo onde, se respondermos corretamente, e acho que começamos a dar os primeiros passos, podemos ter um mundo melhor do outro lado,” disse Amodei. “Existem apenas alguns bugs para encontrar.”

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar