Anthropic filtra código de Claude Code y expone datos internos clave, incluyendo pistas del modelo 'Mythos'
Anthropic, la empresa creadora del modelo de IA Claude, sufrió una filtración accidental de su código fuente vinculado a Claude Code, su herramienta de programación. Este incidente no es un simple error de configuración; el acceso involuntario permitió que terceros con conocimientos en ciberseguridad extrajeran información interna adicional, lo que marca un alcance técnico mayor que filtraciones previas de la compañía. El episodio agudiza los desafíos de seguridad del sector, que corre para lanzar modelos cada vez más sofisticados mientras lucha por proteger sus activos más valiosos.
La filtración ocurrió apenas días después de que, según Fortune, se revelara por error la existencia de un modelo avanzado desarrollado internamente bajo el nombre en clave 'Mythos'. Este patrón de fugas consecutivas subraya una fragilidad operativa crítica en la protección de desarrollos estratégicos para Anthropic. Roy Paz, investigador sénior de seguridad en IA de LayerX Security, confirmó que el material filtrado contiene pruebas adicionales del desarrollo de este modelo, ampliando la exposición de secretos comerciales más allá del código base.
El incidente coloca a Anthropic bajo una presión de seguridad intensificada, en un momento donde la competencia por la supremacía en IA genera una carrera de lanzamientos que a menudo prioriza la velocidad sobre la robustez. La filtración de código fuente, combinada con la revelación de proyectos internos, no solo representa un riesgo de propiedad intelectual, sino que también podría erosionar la confianza de socios y clientes en la capacidad de la empresa para salvaguardar información sensible. Este caso sirve como una advertencia clara para todo el sector sobre los riesgos sistémicos que acompañan a la aceleración descontrolada del desarrollo de inteligencia artificial.