Anthropic filtra por error el código fuente de su herramienta de programación Claude Code
Anthropic, la compañía de inteligencia artificial conocida por su enfoque en la seguridad, ha sufrido su segundo incidente de datos en menos de una semana. En esta ocasión, la empresa liberó por accidente una parte importante del código fuente interno de su popular asistente de programación, Claude Code.
Este tropiezo operativo llega pocos días después de que se descubrieran miles de documentos internos no publicados en una base de datos de acceso público. Entre ellos se encontraba un borrador del anuncio de su próximo modelo de IA de nueva generación, conocido internamente como Claude Mythos o Capybara. Anthropic fue fundada en 2021 por antiguos investigadores de OpenAI. Estos eventos consecutivos ponen a prueba la reputación de una empresa que se ha posicionado como el actor más prudente y centrado en la seguridad de la industria. El escrutinio no es solo interno; el Pentágono ya ha identificado a Anthropic como un riesgo para la seguridad nacional, lo que añade otra capa de presión sobre la compañía.
¿Qué se filtró y por qué importa?
Anthropic confirmó la exposición del código, describiéndola como “un problema de empaquetado de la versión causado por un error humano, no una brecha de seguridad”. En un comunicado, la compañía aseguró que “no se vieron involucrados ni expuestos datos sensibles de clientes o credenciales”. La empresa actuó para retirar el paquete de distribución y afirmó estar implementando salvaguardas adicionales para evitar que se repita.
La filtración ocurrió a través de un archivo conocido como source map, incluido por error en una actualización del paquete de software de la herramienta. En simple, este tipo de archivo se usa para depurar código y, en la práctica, permite revertir el código de producción a su estructura original y legible (en este caso, TypeScript). El archivo expuso aproximadamente 512,000 líneas de código distribuidas en casi 1,900 módulos, ofreciendo una vista detallada de la arquitectura interna de la herramienta.
El código se replicó rápidamente en GitHub, la plataforma de desarrollo de software, donde miles de desarrolladores crearon copias o "forks".
Una reacción que empeoró el problema
En un intento por contener la difusión, Anthropic emitió una solicitud de retirada masiva bajo la ley de derechos de autor estadounidense (DMCA) a GitHub. Sin embargo, la petición fue demasiado amplia. Debido a la forma en que GitHub gestiona las copias de proyectos, la solicitud provocó la eliminación de más de 8,100 repositorios, muchos de los cuales eran proyectos legítimos que no contenían el código filtrado.
La comunidad de desarrolladores reaccionó de inmediato. Boris Cherny, jefe de Claude Code en Anthropic, reconoció públicamente que la eliminación masiva “no fue intencionada” y que estaban trabajando con GitHub para solucionarlo. Posteriormente, Anthropic retiró la solicitud para todos los repositorios excepto el original y 96 copias directas que sí contenían el código fuente. GitHub procedió a restaurar el acceso a los miles de proyectos afectados.
El impacto real: una hoja de ruta para la competencia
Aunque el código filtrado no incluye los elementos más críticos, como los pesos del modelo de lenguaje o los datos de entrenamiento, sí ofrece un mapa detallado del funcionamiento interno del agente. Esto es particularmente delicado para Anthropic, ya que Claude Code siempre ha sido un producto de código cerrado.
El material expuesto revela a competidores y desarrolladores cómo el sistema gestiona tareas complejas: desde el manejo de las ventanas de contexto y la memoria a largo plazo hasta la coordinación de razonamiento en varios pasos y el uso de herramientas. Esto incluye el llamado *agentic harness*, el conjunto de instrucciones y barreras que guían al modelo. En una industria donde cada pequeña ventaja cuenta, esta visibilidad podría permitir a rivales como OpenAI y Google ahorrarse semanas o meses de investigación.
Investigadores y programadores ya están analizando el código en busca de pistas sobre capacidades futuras, descubriendo referencias a un agente secreto llamado “KAIROS” y trampas anti-distillación, diseñadas para proteger la propiedad intelectual.
Un tropiezo en un momento clave
Estos errores llegan justo cuando Claude Code se ha consolidado como uno de los productos estrella en la categoría de IA para desarrolladores. Lanzada al público en mayo del año pasado, la herramienta ayuda a programar, depurar código y automatizar flujos de trabajo. Su adopción ha sido masiva, atrayendo una competencia feroz de gigantes como Google y OpenAI. Su popularidad también resalta las preocupaciones de seguridad, ya que la IA de Claude ha sido utilizada en ciberataques, subrayando la importancia de proteger estas tecnologías.
Además, este no es un hecho aislado. Se trata del tercer incidente operativo de Anthropic en poco más de un año, lo que alimenta las dudas sobre sus controles internos. Para una compañía que ha construido su marca sobre la base de la responsabilidad y la ejecución impecable, estos fallos consecutivos arriesgan su narrativa central. Esta narrativa contrasta marcadamente con la visión de su presidenta, quien ha enfatizado que el futuro es el pensamiento humano, no solo el código.
Ahora, Anthropic tiene la tarea de demostrar que estos incidentes son solo dolores de crecimiento aislados, y no síntomas de problemas más profundos, especialmente mientras la empresa se prepara para lo que podría ser una de las salidas a bolsa más esperadas en el sector de la IA.