← Volver a Ratio
IA & Derecho · · 4 min de lectura

Anthropic filtró 512.000 líneas de Claude Code: dos preguntas urgentes sobre gobernanza de IA generativa

Anthropic filtró 512.000 líneas del código de Claude Code en un repositorio público. Dos preguntas que CIOs y jurídicos deberían hacerse sobre gobernanza de IA generativa.

#gobernanza-ia #ciberseguridad #copyright #ia-generativa #cio #cumplimiento
Compartir

A finales de marzo de 2026, Anthropic filtró por error 512.000 líneas de código de su herramienta insignia, Claude Code, en un repositorio público. El origen del incidente: un descuido en un paquete publicado en npm, el registro estándar de paquetes JavaScript. El timing fue particularmente desafortunado, porque coincidió con un ataque a la cadena de suministro que afectaba a otros paquetes del mismo ecosistema.

No es una anécdota de Silicon Valley. Es un caso que merece dos lecturas muy concretas: una para los CIOs, otra para los jurídicos. Cualquier organización que use, o esté considerando usar, herramientas de IA generativa en sus equipos técnicos debería sentarse a leer este episodio con cuidado.

1. El riesgo de seguridad — si eres CIO, te interesa

El código filtrado revela la arquitectura interna de permisos y ejecución de comandos de Claude Code. Para un atacante, esto no es una curiosidad técnica: es un mapa. Saber exactamente cómo una herramienta solicita permisos, cómo ejecuta comandos en el sistema del usuario y cómo gestiona el aislamiento, le ahorra semanas de ingeniería inversa.

A esto se suma el contexto del ataque a la cadena de suministro de npm que ocurría al mismo tiempo. La conclusión operativa es directa: cualquier empresa que haya actualizado la herramienta recientemente debería resetear credenciales de inmediato y auditar los tokens y secretos que la herramienta haya podido tocar.

La pregunta de fondo, sin embargo, no es solo “¿qué hago con Claude Code esta semana?”. Es estructural: ¿qué política tiene tu organización sobre la actualización automática de herramientas de IA generativa instaladas en máquinas de desarrolladores? ¿Existe un inventario? ¿Hay una rotación de secretos que se active ante incidentes de proveedores? Si la respuesta es “no lo sé”, el incidente no es de Anthropic, es tuyo.

2. El descuido jurídico — si eres abogad@, te interesa

La segunda lectura es menos discutida y mucho más incómoda. Claude Code fue probablemente construido, en gran parte, usando la propia IA generativa de Anthropic. Es decir: una porción significativa del código filtrado podría haber sido generada por un modelo de lenguaje.

Bajo el derecho aplicable en Estados Unidos, esto plantea una pregunta jurídica nítida: ¿este código podría carecer de protección por copyright? La doctrina de la US Copyright Office y la jurisprudencia reciente convergen en que las obras generadas sin intervención creativa humana sustancial no son protegibles. Si la generación fue mayoritariamente automatizada, una parte del código simplemente no tiene autor en el sentido del copyright.

¿Qué se sigue de ahí? Que Anthropic podría no tener base legal para impedir que sus competidores utilicen el material filtrado. Lo que en condiciones normales sería un secreto industrial protegido y un activo intelectual valioso, en este escenario sería material de dominio fáctico que cualquiera puede inspeccionar, estudiar y aprovechar. La fuga no solo expone arquitectura, expone la fragilidad jurídica de un activo construido con IA generativa.

¿Esta reflexión parece descabellada? Quizá. Pero es exactamente el tipo de pregunta que los departamentos jurídicos deberían empezar a hacerse antes de que se convierta en un litigio, no después.

La pregunta que el comité de IA de tu organización aún no ha hecho

Más allá del caso Anthropic, el incidente pone sobre la mesa una serie de preguntas que la mayoría de los comités de IA generativa en empresas todavía no abordan con seriedad.

¿Cómo están escribiendo código tus equipos hoy? ¿Qué proporción de ese código pasa por un asistente de IA generativa antes de llegar al repositorio? Si vamos más allá del código —documentos técnicos, propuestas comerciales, contratos, dictámenes—, ¿sabes cómo tus equipos están usando IA generativa actualmente? Ese trabajo, que tu organización considera valioso y diferenciador, ¿está jurídicamente protegido? ¿O has descubierto, sin saberlo, que tu activo intelectual depende de un autor que el derecho no reconoce?

Y la pregunta más estructural: ¿tienes alguna gobernanza de IA generativa en tu organización? No me refiero a una política decorativa colgada en la intranet. Me refiero a un dispositivo operativo: inventario de usos, criterios de aprobación, trazabilidad de los outputs, revisión jurídica de los activos generados, plan de respuesta ante incidentes de proveedores.

El incidente de Anthropic es un recordatorio útil. Las herramientas de IA generativa que están entrando en las empresas son potentes, pero su régimen jurídico, su seguridad y su trazabilidad están muy por debajo de lo que la prudencia exigiría. La gobernanza de la IA generativa ya no es una buena práctica recomendada por consultores: es la diferencia entre un proveedor que falla y una crisis que se traslada íntegramente a tu balance.

Esta línea de reflexión continúa en otros artículos del Ratio: la dinámica más amplia de transformación digital en despachos y departamentos jurídicos, y la cuestión específica de la gobernanza de la IA en equipos jurídicos.

Versión adaptada al estilo del sitio. El fondo se conserva.

Publicación original en LinkedIn — Publicado originalmente el 31 de marzo de 2026 · leer el original