L’incident de fuite de code source impliquant le produit Claude Code, propriété de la startup d’intelligence artificielle Anthropic, a été rapporté. La cause serait une erreur de la part des développeurs lors de la publication d’un paquet npm : le chargement comprenait par inadvertance des fichiers de mappage de code source (.map) utilisés pour le débogage interne, ce qui a permis au public de télécharger et d’analyser plus de 500 000 lignes de code TypeScript. Cet incident de fuite inattendu du code source de Claude Code a, par ailleurs, révélé de façon imprévue l’architecture technique de Claude. Un porte-parole d’Anthropic a confirmé l’incident à Venture Beat, en déclarant qu’aucune donnée sensible confidentielle n’a été exposée.
Que s’est-il dévoilé dans la fuite de Claude Code ?
Un fichier de mappage de code source JavaScript (.map) de 59,8 Mo, initialement destiné au débogage interne, a été inclus par inadvertance dans la version 2.1.88 du paquet logiciel @anthropic-ai/claude-code, publié plus tôt sur le registre public npm. Un stagiaire de Solayer Labs, « Chaofan Shou », a publié un billet sur X, dont le contenu comprenait un lien de téléchargement direct vers une archive hébergée. En quelques heures, ce dépôt d’environ 512 000 lignes de code TypeScript a été répliqué sur GitHub, analysé par des milliers de développeurs.
D’après l’analyse du code source divulgué, Anthropic utilise une suite d’une architecture de mémoire complexe à trois niveaux pour traiter les problèmes de Context Entropy « entropie du contexte » et d’hallucinations générés lors de l’exécution prolongée d’agents IA. Le système abandonne le schéma traditionnel de recherche par stockage intégral, et son noyau est composé d’un index léger nommé MEMORY.md : chaque ligne ne compte qu’environ 150 caractères, chargés d’enregistrer les emplacements des informations plutôt que le contenu lui-même. Les connaissances spécifiques du projet sont réparties dans des « fichiers de thèmes » ; le système ne recherche que des identifiants au moyen d’instructions spécifiques, au lieu de lire le texte source intégralement dans le contexte. De plus, le système applique strictement des « règles d’écriture » : l’agent doit réussir à écrire dans le fichier avant que l’index puisse être mis à jour. Cette conception traite la mémoire comme des « invites » à valider : elle exige que le modèle, avant exécution, compare les faits avec le dépôt de code réel, ce qui maintient efficacement la clarté logique dans des conversations complexes.
Cette fuite de données révèle une fonctionnalité clé nommée « KAIROS ». Cette fonction permet à Claude Code de fonctionner en mode d’agent autonome (Autonomous Daemon). Dans ce mode, l’agent n’est plus seulement un répondeur passif aux instructions : il peut exécuter le processus appelé autoDream lorsque l’utilisateur est inactif, afin de réaliser des tâches de « consolidation de la mémoire ». Ce processus fusionne les résultats d’observation, élimine les contradictions logiques et convertit des informations floues en bases de faits déterminées. Sur le plan technique, Anthropic exécute ces tâches en arrière-plan via des sous-agents dérivés, afin de garantir que la logique de traitement de l’agent principal ne sera pas perturbée par les procédures de maintenance. Ce mécanisme permet de s’assurer que, lorsque l’utilisateur redémarre la tâche, l’agent dispose déjà d’informations contextuelles hautement pertinentes et affinées, ce qui améliore fortement l’utilité des outils de développement autonome.
Le mode masqué de Claude révélé
Le détail technique le plus marquant révélé lors de cette fuite est le « mode masqué ». Cette fonctionnalité met en évidence que Claude Code contribue à des bibliothèques de code open source publiques d’une manière « discrète ». Dans les informations divulguées, le système avertit explicitement le modèle : « Vous exécutez en mode masqué, et vos informations ne doivent contenir aucune information interne d’Anthropic. » « Ne divulguez pas votre identité ; bien qu’Anthropic puisse utiliser ce mode pour ses tests internes, il fournit un cadre technique permettant à toute organisation qui souhaite réaliser des travaux orientés public avec des agents IA sans divulguer d’informations de le faire. »
Cette logique garantit que tout nom de modèle (par exemple Tengu ou Capybara) n’est pas divulgué dans les journaux Git publics. Les concurrents d’entreprise pourraient considérer cette fonctionnalité comme un incontournable pour leurs clients entreprises qui accordent une importance à l’anonymat du développement assisté par l’IA.
Anthropic affirme n’avoir impliqué aucune fuite de données sensibles
Un porte-parole d’Anthropic a confirmé l’incident à VentureBeat par e-mail, indiquant que, plus tôt, la version de Claude Code contenait certains codes sources internes, sans impliquer ni exposer des données clients sensibles ou des identifiants, ce qui résulte d’un problème d’empaquetage de version dû à une erreur humaine et non d’une faille de sécurité. Des mesures sont en cours pour empêcher la répétition d’un tel événement.
Des experts recommandent aux développeurs d’utiliser l’installateur natif officiel désigné
Malgré la déclaration officielle d’Anthropic selon laquelle la sécurité des données dans le cloud est assurée, la fuite du code source combinée à l’attaque de la chaîne d’approvisionnement npm survenue en parallèle fait peser un risque significatif sur l’environnement local. Si des utilisateurs ont mis à jour le paquet claude-code pendant un créneau spécifique du 31 mars 2026, ils pourraient, par erreur, installer un paquet malveillant comportant un cheval de Troie d’accès à distance dans une dépendance. Pour faire face à ce type de risque, des experts de Venture Beat recommandent aux développeurs d’abandonner la méthode d’installation basée sur npm et d’utiliser plutôt l’installateur natif (Native Installer) officiellement désigné, afin de s’assurer d’obtenir des binaires indépendants et vérifiés. Parallèlement, les utilisateurs doivent appliquer un principe de zéro confiance : vérifier les fichiers de configuration locaux et faire tourner les clés API. À mesure que la logique d’orchestration du cœur et la logique de vérification deviennent publiques, la communauté des développeurs peut désormais imiter plus facilement sa structure de mémoire étagée avec des coûts de développement réduits. Cet incident, lié à un produit générant 2,5 milliards de dollars de revenus annuels annualisés, va accélérer la démocratisation concurrentielle de la technologie des agents intelligents dans son ensemble.
Cet article, Anthropic, code source accidentellement divulgué ; l’architecture technique de Claude Code exposée, apparaît pour la première fois sur Chaîne d’actualités ABMedia.