Los programadores de Anthropic permitieron que la IA escribiera código y esta filtró por error todos los secretos en la red

Los programadores de Anthropic permitieron que la IA escribiera código y esta filtró por error todos los secretos en la red

Anthropic intenta salvar las apariencias tras una bochornosa filtración

image

La empresa Anthropic volvió a estar en una situación embarazosa, y esta vez la filtración resultó especialmente dolorosa. En línea se publicó por accidente el código fuente interno del asistente para programación Claude Code – justo en el momento en que la empresa se prepara para salir a bolsa.

La historia comenzó con el hallazgo del usuario Chaofan Shou, que se presentó como pasante de Solayer Lab. Encontró en registro npm un archivo de servicio con formato .map. Ese tipo de archivos se crean durante la compilación de programas para facilitar la depuración. Normalmente, el archivo oculta la estructura interna del código frente a terceros, pero en este caso ocurrió lo contrario: el archivo permitió reconstruir el código fuente legible. Como resultado, se puso a disposición pública parte del proyecto Claude Code versión 2.1.88 – alrededor de 512.000 líneas en TypeScript.

En palabras sencillas, la empresa dejó al descubierto parte de sus «planos» internos. Los desarrolladores empezaron de inmediato a examinar el contenido. En su interior encontraron no solo detalles técnicos, sino curiosidades. Por ejemplo, frases que Claude muestra durante su funcionamiento, y características de la reacción ante solicitudes groseras. Un usuario incluso afirmó haber hallado los inicios de una mascota virtual al estilo Tamagotchi, aunque, por la fecha de lanzamiento, el 1 de abril, podría tratarse de una broma.

La filtración permite ver cómo está organizada la operación del servicio. El código revela los mecanismos de acceso a las interfaces de programación, el cálculo de tokens al procesar solicitudes y otros procesos internos. Al mismo tiempo, los componentes clave del propio modelo, al parecer, no están presentes en los datos publicados. No obstante, todo el código encontrado ya se publicó en GitHub, donde cualquiera puede examinarlo.

Anthropic confirmó la autenticidad de la filtración, pero afirmó que la causa fue un error durante la compilación del lanzamiento y no un ataque. Un representante de la empresa informó que los datos confidenciales de los usuarios y las credenciales no resultaron afectadas, y prometió medidas destinadas a evitar que la situación se repita.

Un detalle curioso: el equipo utiliza activamente a Claude Code en el desarrollo. El responsable del proyecto Boris Cherny ya en diciembre de 2025 escribió que, en el plazo de un mes, todos sus cambios en el código fueron generados por esta herramienta. Ese enfoque, al parecer, se está convirtiendo en la norma dentro de la empresa, y no se descarta que precisamente la dependencia excesiva de la automatización haya tenido un papel en lo sucedido.

La propia filtración no revela la «receta secreta» del modelo, pero ofrece una idea del funcionamiento interno. Y el momento elegido para un incidente así es extremadamente inoportuno. Anthropic se prepara para salir a bolsa, y los competidores aumentan la presión. OpenAI, por ejemplo, desarrolla activamente soluciones corporativas y promueve a su propio competidor de Claude Code – el sistema Codex. En estas condiciones, incluso una filtración parcial parece un golpe serio a la reputación.