El código fuente original de Anthropic se filtró accidentalmente y se reveló la arquitectura tecnológica de Claude Code

ChainNewsAbmedia

La empresa de nueva creación de inteligencia artificial Anthropic, informó una filtración de código fuente de su producto Claude Code. El motivo fue que, al publicar un paquete npm, un desarrollador incluyó accidentalmente archivos de mapas de código (.map) usados para depuración interna, lo que permitió que más de 500.000 líneas de código TypeScript fueran descargadas y analizadas por el público. En este incidente, el derrame inesperado del código fuente de Claude Code expuso accidentalmente la arquitectura técnica de Claude. Un portavoz de Anthropic confirmó la filtración a Venture Beat, indicando que no se expuso ningún dato sensible ni confidencial.

¿Qué filtró Claude Code?

Un archivo de mapa de código fuente de JavaScript (.map) de 59,8 MB, que originalmente se usaba para depuración interna, pero que se incluyó involuntariamente en la versión 2.1.88 del paquete de software @anthropic-ai/claude-code que se había publicado antes en el registro público de npm. Un pasante de Solayer Labs, “Chaofan Shou”, publicó en X una entrada que contenía un enlace directo de descarga a un archivo alojado. En pocas horas, este repositorio de aproximadamente 512.000 líneas de código TypeScript se replicó en GitHub y fue analizado por miles de desarrolladores.

Según el análisis del código fuente filtrado, Anthropic utiliza una compleja arquitectura de memoria en tres capas para abordar el problema de Context Entropy “entropía del contexto” y las alucinaciones que se generan cuando los agentes de IA operan durante mucho tiempo. El sistema abandona el patrón tradicional de almacenamiento y recuperación de cobertura total; el núcleo está compuesto por un índice liviano llamado MEMORY.md. Cada línea tiene apenas unos 150 caracteres y se encarga de registrar la ubicación de la información en lugar del contenido en sí. El conocimiento específico del proyecto se distribuye en “archivos temáticos”; el sistema solo busca identificadores mediante comandos específicos, en lugar de leer el texto original completo en el contexto. Además, el sistema aplica estrictamente “reglas de escritura”: el agente solo puede actualizar el índice después de escribir exitosamente en el archivo. Este diseño trata la memoria como un “prompt” que debe verificarse, exigiendo que el modelo antes de ejecutar compare hechos con el repositorio real del código, manteniendo eficazmente la claridad lógica en conversaciones complejas.

Esta filtración de datos reveló una función clave llamada “KAIROS”, que permite que Claude Code funcione en un modo de protección autónoma del programa (Autonomous Daemon). En este modo, el agente deja de ser un mero respondedor pasivo de instrucciones y puede ejecutar el proceso llamado autoDream cuando el usuario está desocupado, para realizar el trabajo de “integración de memoria”. Este proceso combina los resultados de observación, elimina contradicciones lógicas y convierte información vaga en una base de hechos determinada. Técnicamente, Anthropic ejecuta estas tareas en segundo plano mediante agentes subsidiarios derivados, para garantizar que la lógica del agente principal no se vea afectada por la operación de mantenimiento. Este mecanismo asegura que, cuando el usuario reinicie la tarea, el agente ya cuente con información de contexto altamente relevante y refinada, mejorando considerablemente la utilidad de las herramientas de desarrollo autónomo.

Se expone el modo oculto de Claude

El detalle técnico más destacado expuesto en esta ocasión es el “modo oculto”, una función que revela que Claude Code contribuye con “secreto” a repositorios públicos de código abierto. Entre la información filtrada se encontró que el sistema advierte explícitamente al modelo: “Estás ejecutando de forma sigilosa; tu información no debe contener ninguna información interna de Anthropic”. “No reveles tu identidad. Aunque Anthropic podría usar este modo para pruebas internas, ofrece un marco técnico para cualquier organización que desee utilizar agentes de IA para trabajar orientado al público sin filtrar información”.

Esta lógica garantiza que cualquier nombre de modelo (por ejemplo, Tengu o Capybara) no se filtre en los registros públicos de Git. Los competidores de la empresa podrían considerar esta función como imprescindible para sus clientes corporativos que valoran la anonimidad del desarrollo asistido por IA.

Anthropic afirma que no se filtró ninguna información sensible

Un portavoz de la compañía Anthropic confirmó por correo electrónico a VentureBeat este incidente de filtración. Declaró que, en la versión anterior de Claude Code, se incluían algunos códigos fuente internos, sin involucrar ni filtrar datos de clientes sensibles ni credenciales. Esto se debió a un problema de empaquetado de versión causado por un error humano, no a una vulnerabilidad de seguridad; además, se están tomando medidas para evitar que ocurra nuevamente un evento de este tipo.

Los expertos recomiendan que los desarrolladores usen el instalador nativo oficial especificado

Aunque la declaración oficial de Anthropic sostiene que la seguridad de los datos en la nube es sólida, la filtración del código fuente y el ataque simultáneo a la cadena de suministro de npm hacen que el entorno local enfrente un riesgo significativo. Si los usuarios actualizaron el paquete claude-code durante un periodo específico el 31 de marzo de 2026, podrían haber instalado por error una dependencia maliciosa que incluía un troyano de acceso remoto. Para mitigar este tipo de riesgo, los expertos de Venture Beat recomiendan que los desarrolladores abandonen el método de instalación basado en npm y, en su lugar, utilicen el instalador nativo (Native Installer) especificado oficialmente, para asegurar que obtengan binarios independientes y verificados. Al mismo tiempo, los usuarios deben aplicar el principio de confianza cero, revisando los archivos de configuración locales y rotando las claves API. Con la publicación de la lógica central de orquestación y la lógica de verificación, la comunidad de desarrolladores ahora puede imitar su estructura de memoria por capas con costos de I+D más bajos. El incidente de filtración de este producto con ingresos anualizados de 2.500 millones de dólares acelerará la difusión competitiva de la tecnología de agentes en general.

Este artículo sobre la filtración inesperada del código fuente de Anthropic, que expuso la arquitectura técnica de Claude Code, apareció por primera vez en Cadena de Noticias ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios