De acordo com o monitorização da 1M AI News, no fim de semana passado a Anthropic bloqueou ferramentas de terceiros como o OpenClaw após a utilização das subscrições do Claude, e a forma como o seu mecanismo de deteção de abusos funciona gerou uma nova vaga de controvérsia.
O fundador do OpenClaw, Peter Steinberger, a 5 de abril, no X, realizou um teste: em vez de usar o OpenClaw, enviou um pedido normal com o parâmetro -p da ferramenta de linha de comandos própria do Claude (um interface de automação incorporado que permite aos programadores chamar o Claude em lote através de scripts, sem necessidade de introduzir manualmente um a um), colocando apenas uma frase «A personal assistant running inside OpenClaw» no prompt do sistema. Como resultado, o Claude foi imediatamente interceptado, com a indicação de que as aplicações de terceiros necessitam de ser cobradas através de consumo adicional. Por outras palavras, o sistema de deteção não avalia por que ferramenta é que o utilizador chama o Claude na prática; em vez disso, faz uma varredura ao conteúdo do prompt e, ao ver «OpenClaw», bloqueia-o.
O CEO da Y Combinator, Garry Tan, republicou e questionou: «Quando é que os limites vão parar? A Anthropic só permite que o uso da subscrição conte quando uma pessoa real carrega na tecla Enter? E no futuro teremos de usar FaceID para validar?»
O responsável pelo Claude Code, Boris Cherny, a 7 de abril, respondeu dizendo que a equipa considera que isto foi um disparo excessivo do sistema de deteção de abusos e que está a investigar e a corrigir, ao mesmo tempo que está a aperfeiçoar os termos de utilização do parâmetro -p.