En mi clase de Digitalización del Derecho, en la Facultad de Derecho de la Universidad Panamericana, empiezo siempre por la misma definición operativa: un algoritmo es una secuencia ordenada de operaciones que permite llegar a un resultado previsto de antemano. No el resultado exacto, sino el tipo de resultado.
Después lanzo una pregunta:
¿Cuál es el objetivo de ChatGPT?
Las respuestas son siempre las mismas: “producir texto de calidad”, “responder preguntas”, a veces —con un grado adicional de antropomorfismo— “decir la verdad”. Todas equivocadas. El objetivo real es ridículamente simple: predecir el siguiente token. Punto.
No “comprende”, no “responde”, no “razona”: calcula probabilidades sobre secuencias de palabras. Todo lo demás —la coherencia, la utilidad, la apariencia de inteligencia— es lo que nosotros proyectamos sobre ese mecanismo.
Lo que mis alumnos repiten, los despachos también lo repiten
Los alumnos no son responsables del error. Repiten la narrativa de marketing dominante alrededor de la IA. El problema empieza después: esa misma narrativa circula —con corbata— dentro de despachos y direcciones jurídicas. Y ahí ya no son alumnos. Son quienes firman contratos con proveedores de IA, autorizan herramientas para sus equipos y opinan en consultas regulatorias.
La reacción habitual frente al binomio “abogados e IA” es programar talleres. Esa reacción trata el asunto como un déficit de habilidades. Pero el problema no es que los abogados no sepan abrir ChatGPT: es que firman, regulan y litigan sobre sistemas que no saben describir. Eso ya no se arregla con un curso. Se arregla con una decisión de gobernanza —sobre quién, dentro de la organización, está autorizado a operar sin entender lo que firma.
Lo que separa a un equipo que negocia de uno que solo comenta
La diferencia estratégica se juega en un único punto: ¿el área jurídica puede describir, con sus propias palabras, la arquitectura técnica, los flujos de datos y los objetivos de los modelos que firma, audita o utiliza?
Cuando la respuesta es sí, ocurren tres cosas concretas:
- Los contratos asignan riesgos a partir de realidades operativas reales, no de metáforas heredadas del marketing.
- El equipo participa en la redacción de las reglas regulatorias, en lugar de heredar reglas escritas por otros actores y limitarse a comentarlas.
- Aparecen oportunidades de producto y de proceso que son invisibles para quien trata estas herramientas como cajas negras.
Cuando la respuesta es no, el equipo queda estructuralmente como comentarista. Las reglas del juego se escriben en otra parte —y se aplican después al perímetro jurídico, casi siempre tarde y casi siempre con un costo asimétrico para la organización.
Desmitificar como decisión de gobernanza
Por eso desmitificar la IA dentro de un equipo jurídico no es una línea presupuestaria de formación. Es una pregunta sobre quién, en la organización, puede firmar, auditar, regular o utilizar profesionalmente sistemas que no comprende. Una vez que se formula así, la respuesta deja de ser obvia y la asignación de recursos abandona el cajón “capacitación interna” para entrar en la agenda del comité directivo o del socio director.
Esa es exactamente la frontera donde una transformación digital seria del despacho o del área jurídica deja de parecerse a un curso y empieza a parecerse a una decisión arquitectónica. Las áreas que cruzan esa frontera no terminan “dominando” la IA. Terminan recuperando la posición de poder que la asimetría les estaba quitando, día tras día, con cada herramienta nueva firmada sin comprensión real.
Antes de regular, hay que entender. Antes de entender, hay que decidir, en la cúspide de la organización, que entender es prioritario.