L'IA de mauvaise qualité inonde la communauté open source ! Certains projets ont commencé à suspendre les contributions externes, Shitcode ressemble à une attaque DDoS

BTC-4,11%

Projet open source Tldraw, en raison de la surcharge causée par une quantité importante de code généré par IA de mauvaise qualité, a annoncé qu’il suspendait temporairement l’acceptation de contributions externes. Ce type de « AI Slop » consomme gravement l’énergie des mainteneurs, et la communauté explore actuellement la mise en place d’un système de crédibilité ou d’un mécanisme de dépôt de garantie pour y faire face.

En raison de la surcharge causée par le contenu généré par IA, le projet open source Tldraw suspend temporairement l’acceptation de PR externes

Un projet open source de dessin web sur GitHub, Tldraw, qui a obtenu plus de 40 000 étoiles, a récemment publié une annonce indiquant qu’il suspendait l’acceptation des demandes de tirage (Pull Request, PR) provenant de contributeurs externes.

Le développeur steveruizok a souligné que, comme de nombreux projets open source sur GitHub, l’équipe a récemment constaté une augmentation significative du nombre de contributions entièrement générées par des outils IA. Bien que certaines contributions soumises soient correctes en forme, la majorité manque de contexte complet, comprend mal le code, et les soumissionnaires n’ont presque pas participé aux discussions par la suite.

steveruizok insiste sur le fait qu’une PR ouverte représente l’engagement du mainteneur, c’est-à-dire que cette contribution sera examinée attentivement et sérieusement considérée pour intégration. Pour que cet engagement conserve sa signification, l’équipe doit appliquer une sélection plus rigoureuse.

Actuellement, la politique de Tldraw consiste à fermer toutes les PR externes, sauf celles qui sont réellement prises en considération. Cela vise le meilleur intérêt de la qualité du projet et du code, même si cela est regrettable pour la contribution publique, steveruizok indique qu’il ne sera possible de revenir à une ouverture totale qu’après le lancement d’outils de gestion plus performants par GitHub.

Curl et OCaml également touchés, l’abondance de AI Slop

La décision de Tldraw de suspendre les PR n’est qu’un exemple récent de l’impact de l’AI Slop (déchets IA) sur la communauté open source. Des discussions similaires ont récemment gagné en intensité sur Reddit et Hacker News.

Une discussion sur Reddit indique que, selon Daniel Stenberg, mainteneur de l’outil de transfert connu Curl, le projet subit une « attaque DDoS » par des rapports d’erreur générés par IA, avec environ 20% des soumissions de 2025 étant du contenu de mauvaise qualité généré par IA, ce qui consomme énormément le temps des volontaires mainteneurs.

De plus, le mainteneur d’OCaml a également refusé une PR de 13 000 lignes, générée par IA, au motif que la révision du code IA est plus fastidieuse que l’écriture manuelle, et que l’afflux massif de PR de faible qualité pourrait faire planter le système.

Les discussions sur Hacker News se concentrent quant à elles sur les mécanismes de GitHub.

Certains internautes pensent que le fait de mettre en évidence le nombre de PR sur la page encourage la soumission de contributions pour des raisons purement statistiques.

Le problème actuel avec l’IA générative dans la communauté open source, c’est que beaucoup de développeurs inexpérimentés utilisent des outils IA pour générer du code sans valeur, en espérant que les mainteneurs fusionneront rapidement, ce qui nuit à la confiance dans la collaboration open source.

Quelques solutions : liste blanche ou système de crédibilité

Face à la nuisance des « Shitcode » dans la communauté open source, le développeur de Bitcoin Bryan Bishop (kanzure) a répondu sur la page GitHub de Tldraw, en proposant que le processus de développement soit « privatisé », en passant à un mode réservé aux membres invités, ou en exigeant d’être sur une liste blanche pour pouvoir commenter ou faire des PR.

Même si cela peut aller à l’encontre de l’esprit d’ouverture de Bitcoin, Bryan Bishop pense que cela pourrait réduire efficacement le bruit et les débats inutiles causés par des non-contributeurs, permettant aux développeurs de se concentrer sur la technique elle-même, et d’éviter que leur attention précieuse ne soit dispersée par des interactions malveillantes ou inefficaces.

En plus de la privatisation, l’ingénieur logiciel Steve Rodrigue suggère également de créer un système de crédibilité pour les contributeurs à travers plusieurs projets, en utilisant un réseau de confiance pour valider la valeur des comptes.

Un autre développeur travaille sur un protocole « Stake-to-PR » basé sur la blockchain, exigeant que le soumissionnaire paie une petite caution, qui sera confisquée si le contenu est jugé comme du AI Slop, et remboursée intégralement s’il s’agit d’une contribution valable, dans le but d’augmenter le seuil d’entrée et de freiner l’abus de l’IA.

Lecture complémentaire :
Contenu IA en abondance ! Le dictionnaire Web3 choisit « Slop » comme mot de l’année 2025, provoquant de vives discussions dans le secteur technologique

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Un entrepreneur canadien de 33 ans spécialisé dans les cryptomonnaies a été kidnappé à Madrid en Espagne, deux suspects ont été arrêtés

Un enlèvement s'est produit à Madrid, en Espagne, où un entrepreneur en cryptomonnaies canadien de 33 ans a été retenu de force par plusieurs hommes, dans le but de voler du BTC et des clés privées. La police a procédé à un sauvetage en temps opportun et arrêté deux suspects. L'affaire implique du harcèlement prémédité et des attaques par menaces physiques, et l'enquête est toujours en cours.

GateNewsIl y a 3h

Cyberattaque de Bitrefill : 18 500 dossiers exposés, le groupe Lazarus suspecté

Bitrefill a subi une cyberattaque le 1er mars 2026, liée au groupe Lazarus, exposant 18 500 dossiers utilisateurs et drainant des fonds. L'entreprise couvrira toutes les pertes et a mis en œuvre des mesures de sécurité renforcées.

TheNewsCryptoIl y a 5h

Un CEX avertit : le jeton marqué comme "BTC" sur le réseau TON est un jeton frauduleux, et il aide les utilisateurs à traiter la situation.

Un CEX a répondu à un utilisateur en affirmant que le Bitcoin n'existe pas sur le réseau TON. Les tokens transférés par l'utilisateur et marqués comme « BTC » sont en réalité des tokens de fraude. L'échange aide à récupérer les actifs, mais le processus est complexe et chronophage. Il rappelle aux utilisateurs de se méfier des erreurs de manipulation et des risques de fraude.

GateNewsIl y a 6h

Un Homme Indien Victime d'une Arnaque aux Faux Investissements Cryptographiques, Perd ₹71.6 Lakh

Un consultant en assurances du Maharashtra a perdu ₹71,6 lakh à des escroqueries d'investissement en crypto-monnaies, reflétant la hausse des fraudes en ligne en Inde, avec plus de 24 lakh plaintes et ₹22,495 crore de pertes signalées par le portail national de signalement des crimes cyber en 2025. Les appels en faveur de réglementations plus claires sur les crypto-monnaies augmentent.

TheNewsCryptoIl y a 6h

Trois adolescents poursuivent xAI aux États-Unis, accusant Grok de générer des images d'exploitation sexuelle d'enfants

Trois femmes adolescentes poursuivent en justice xAI, filiale d'Elon Musk, devant un tribunal fédéral californien, accusant son chatbot Grok de générer sans consentement des images d'exploitation sexuelle d'enfants. Elles demandent des dommages et intérêts ainsi qu'une ordonnance interdisant la génération de tels contenus. Selon la plainte, cette fonctionnalité aurait généré plus de 20 000 images concernées, avec au moins 18 mineurs victimes.

GateNewsIl y a 7h
Commentaire
0/400
Aucun commentaire