AI lixo a entrar na comunidade de código aberto! Alguns projetos começaram a suspender contribuições externas, Shitcode assemelha-se a um ataque DDoS

BTC0,77%

Projeto de código aberto Tldraw, devido à sobrecarga de código inútil gerado por IA, anuncia a suspensão da aceitação de contribuições externas. Este tipo de “AI Slop” consome seriamente a energia dos mantenedores, e a comunidade está a discutir a criação de um sistema de reputação ou mecanismo de caução para lidar com isso.

Incapaz de suportar a carga de conteúdo gerado por IA, o projeto de código aberto Tldraw suspende PRs externos

Um projeto de desenho web de código aberto no GitHub, com mais de 40 mil estrelas, Tldraw, anunciou recentemente que irá suspender a aceitação de pedidos de pull (Pull Request, PR) de contribuintes externos.

O desenvolvedor steveruizok apontou que, como muitos projetos de código aberto no GitHub, a equipe notou recentemente um aumento evidente na quantidade de contribuições totalmente geradas por ferramentas de IA. Embora algumas contribuições estejam formalmente corretas, a maioria carece de contexto completo, interpreta mal o repositório de código, e os autores quase não participam nas discussões posteriores.

steveruizok enfatizou que um PR aberto representa o compromisso do mantenedor, ou seja, a contribuição será cuidadosamente revisada e considerada para inclusão. Para manter esse compromisso significativo, a equipe precisa aplicar uma filtragem mais rigorosa.

Atualmente, a política do Tldraw é fechar todos os PRs externos, reabrindo apenas aqueles que realmente forem considerados relevantes. Isso é feito para o melhor interesse da qualidade do projeto e do código, embora lamentem o fechamento das contribuições públicas, steveruizok afirmou que só será possível reabrir quando o GitHub lançar melhores ferramentas de gestão.

Curl e OCaml também são afetados, com AI Slop a proliferar

A decisão do Tldraw de suspender os PRs é apenas um exemplo recente do impacto do AI Slop (lixo de IA) na comunidade de código aberto. Recentemente, discussões semelhantes têm aumentado em fóruns como Reddit e Hacker News.

Uma discussão no Reddit apontou que, o conhecido ferramenta de transmissão Curl, cujo mantenedor é Daniel Stenberg, revelou que,** o projeto está sofrendo um “DDoS” de relatórios de erro gerados por IA, com cerca de 20% das submissões de 2025 sendo conteúdo lixo de IA****, consumindo seriamente o tempo dos voluntários mantenedores.**

Além disso, o mantenedor do OCaml também recusou um PR de 13.000 linhas geradas por IA, argumentando que revisar código gerado por IA é mais trabalhoso do que escrever manualmente, e uma grande quantidade de PRs de baixa qualidade pode levar ao colapso do sistema.

Nas discussões no fórum Hacker News, o foco é nas questões do mecanismo do GitHub.

Alguns usuários acreditam que, ao colocar o número de PRs em destaque na página, o GitHub incentiva uma cultura de submissões por motivos de dados.

A crise atual da IA generativa na comunidade de código aberto ocorre porque muitos desenvolvedores inexperientes usam ferramentas de IA para gerar códigos sem valor, e ainda esperam que os mantenedores façam merges rápidos. Essa prática está a destruir a confiança na colaboração da comunidade open source.

Algumas soluções: listas brancas ou sistemas de reputação

Diante do assédio de código inútil (Shitcode) na comunidade de código aberto, o desenvolvedor de Bitcoin Bryan Bishop (kanzure) respondeu na página do GitHub do Tldraw que, ele já propôs à equipe de desenvolvimento do Bitcoin Core que o processo de desenvolvimento seja “privatizado”, passando a ser acessível apenas a membros convidados, ou que seja criado um sistema de lista branca para permitir comentários e PRs.

Embora isso possa violar o espírito de abertura do Bitcoin, Bryan Bishop acredita que essa medida pode reduzir efetivamente o ruído e discussões inúteis causados por não-contribuidores, permitindo que os desenvolvedores se concentrem na tecnologia, evitando distrações por interações maliciosas ou de baixa qualidade.

Além da privatização, o engenheiro de software Steve Rodrigue também sugere a criação de um sistema de reputação de contribuidores entre projetos, usando redes de confiança para validar o valor das contas.

Outro desenvolvedor está a criar um protocolo baseado em blockchain chamado “Stake-to-PR”, que exige que o contribuinte pague uma pequena caução, e se o conteúdo for considerado lixo de IA, o valor é confiscado; se for uma contribuição válida, o valor é devolvido integralmente, tentando assim aumentar a barreira para impedir abusos de IA.

Leitura adicional:
Conteúdo de IA em excesso! O dicionário Web escolheu “Slop” como a palavra de 2025, gerando debates acalorados na comunidade tecnológica

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Bitrefill divulga ataque de hackers presumivelmente norte-coreanos a 1 de março, com vazamento de aproximadamente 18,500 registos de compras de clientes

A Bitrefill sofreu um ataque de rede em 1 de março, resultando na exposição de aproximadamente 18.500 registos de dados de clientes. O ataque originou-se num computador portátil comprometido de um funcionário, semelhante aos métodos utilizados por grupos de hackers norte-coreanos. A empresa isolou os sistemas e está a trabalhar com especialistas para restaurar as operações, ao mesmo tempo que reforça as medidas de cibersegurança.

GateNews2h atrás

Mais Inteligência: Utilizadores relacionados com MoreLogin suspeitos de sofrer roubo em massa de criptomoedas, endereço do hacker lucrou aproximadamente 85 mil dólares

Fundador da Slowmist, Yu Xian, emitiu um aviso na plataforma X alertando que múltiplos utilizadores sofreram ataques de roubo, com suspeita de que chaves privadas ou frases sementes foram coletadas por hackers. O endereço do hacker obteve ganhos de aproximadamente 85.000 dólares, e parte da comunidade suspeita de estar relacionado com o navegador de impressão digital MoreLogin, mas ainda não há evidências conclusivas. Apela às vítimas para fornecer informações relevantes para facilitar a investigação.

GateNews3h atrás

Uma equipa de hackers chinesa auto-divulgou-se devido a dissensões sobre a divisão de despojos, tendo roubado anteriormente aproximadamente 7 milhões de dólares em activos criptográficos

Uma equipa de piratas informáticos entrou em conflito interno devido a disputas sobre a divisão de lucros, revelando publicamente que roubou aproximadamente 7 milhões de dólares em activos criptográficos através de um ataque à cadeia de fornecimento. A equipa usurpou a identidade de uma empresa de cibersegurança, utilizando ferramentas automatizadas para obter frases iniciais e roubar dados de carteiras multi-blockchain, envolvendo 37 tokens diferentes. O denunciante planeou entregar-se às autoridades encarregadas da aplicação da lei, estando os detalhes do incidente pendentes de investigação.

GateNews5h atrás

CertiK Avisa Riscos de Segurança em Marketplaces de Agentes de IA Apesar de Verificação de Habilidades de Próxima Geração

A CertiK revelou vulnerabilidades de segurança significativas nos mercados de agentes de IA, enfatizando que os métodos de detecção atuais são inadequados. A investigação defende uma segurança aprimorada em tempo de execução e isolamento de competências para prevenir potenciais comprometimentos de código malicioso não detectado.

BlockChainReporter6h atrás

Ministério de Segurança do Estado divulga manual de criação segura de "Lagosta" (OpenClaw), apresentando quatro grandes riscos e medidas de resposta

17 de março, o Departamento de Segurança Nacional publicou um manual de aquacultura segura de "lagostas", apontando que os riscos de criação incluem sequestro de hospedeiros, roubo de dados, etc., recomendando verificar interfaces de controle, configurações de permissões, segurança de credenciais e fontes de plug-ins, enfatizando a adesão ao princípio de privilégio mínimo e a adoção de medidas de isolamento.

GateNews7h atrás
Comentar
0/400
Nenhum comentário