← Volver a Ratio
IA & Derecho · · 4 min de lectura

IA en la justicia mexicana: análisis crítico de dos tesis del SJF

Dos tesis recientes del SJF avalan el uso de IA en la justicia mexicana. Análisis crítico de su lenguaje jurídico, supuestos técnicos y riesgos para el criterio.

#tesis #ia #retorica #softlaw #chatgpt #scjn #sjf
Compartir

El Semanario Judicial de la Federación (SJF) publicó dos tesis sobre el uso de inteligencia artificial en la justicia. La controversia que las origina parece técnica: en un asunto de garantía, los albaceas interpusieron recurso de queja para impugnar el monto, al considerar que su determinación carecía de parámetros objetivos. Pero la lectura de las tesis revela mucho más que un cálculo: revela cómo la retórica tecnoentusiasta se está incorporando al lenguaje jurídico, sin filtros ni definiciones.

A continuación, un análisis crítico tesis por tesis, argumento por argumento.

Primera tesis: cuatro razones que repiten el marketing de OpenAI

La primera tesis abre calificando a la IA de “herramienta innovadora”, sin definir a qué se refiere con “IA”. Con razón, porque en realidad el caso se refiere a… ChatGPT y otros modelos similares. Luego establece que se puede usar “la IA” por cuatro razones. Las repaso una por una.

a) “Reduce errores humanos en dichos cálculos.”

Quedo a la espera de ver un error que no sea un error “humano”. Quedo también a la espera de ver estadísticas serias sobre disminución del error cuando se usa ChatGPT en cálculos numéricos, en lugar de un experto o de un programa especializado. La premisa se afirma sin evidencia.

b) “Da transparencia y trazabilidad al exponer cómo se obtiene el resultado paso a paso.”

Depende de cómo se usa. El hecho de emplear un modelo estocástico con miles de millones de parámetros no da, en sí mismo, más transparencia ni más trazabilidad sobre el resultado. Confundir la salida en lenguaje natural con una explicación trazable del razonamiento es un error técnico de fondo.

c) “Genera consistencia y estandarización en los precedentes y en la fijación de los montos de las garantías.”

Aquí parece confundirse la herramienta con el proceso. La IA no genera consistencia ni estandarización. Lo único que produce ese resultado es el rigor con el cual se fijan los montos de garantía. La IA, en sí, es un conjunto de herramientas diversas. No existe garantía alguna de consistencia ni estandarización por el simple hecho de “usar IA”.

d) “Mejora la eficiencia procesal, al liberar tiempo para el análisis sustantivo del caso y facilitar la motivación de las decisiones judiciales.”

Retórica tecnoentusiasta, afirmada sin más base que la repetición ad nauseam del marketing de OpenAI.

Segunda tesis: “uso ético y responsable” como significantes vacíos

La segunda tesis pretende establecer los elementos mínimos que deben observarse para el uso “ético y responsable” de la IA, con perspectiva de derechos humanos. Pero ¿qué es un uso ético y responsable?

  • “Ético” depende de la teoría que uno adopte —kantiana, utilitarista, de la virtud, etc.— y puede llevar a resultados contradictorios.
  • “Responsable” no significa nada si no se especifica ante quién y con qué consecuencias.

Son significantes vacíos que contaminan el lenguaje jurídico con retórica corporativa y de softlaw. Inscribir estos términos en una tesis aislada, sin definiciones técnicas claras, equivale a importar al criterio jurisdiccional el vocabulario del marketing tecnológico.

El comodín retórico: proporcionalidad e inocuidad

Pero hay otra frase en esta segunda tesis que merece detenerse:

“La proporcionalidad e inocuidad exige que las herramientas de IA se utilicen únicamente en la medida necesaria y adecuada para alcanzar un fin legítimo, como por ejemplo, facilitar razonamientos numéricos sin que se alcance al razonamiento jurídico en la interpretación o aplicación de las normas.”

No comentaré más.

Lo que viene después

Próximamente analizaré el método basado en ChatGPT que se usó para calcular la garantía, con conclusiones basadas en evidencias —no en intuiciones ni en marketing.

Para los profesionales que quieran formarse críticamente sobre el uso de estas herramientas, en lugar de adoptarlas a ciegas, recomiendo leer también nuestro análisis sobre las guías de ChatGPT para abogados y los riesgos para el ejercicio profesional. Y si su despacho o área jurídica está evaluando cómo integrar estas herramientas con rigor metodológico, las seis líneas de servicios de legis.digital están pensadas precisamente para eso: automatización, formación, gobernanza IA y consultoría estratégica con KPIs medibles.


Nota: Las tesis citadas no provienen de la SCJN, sino de Tribunales Colegiados de Circuito (TCC), aunque estén publicadas en el portal del SJF administrado por la SCJN.

Versión adaptada al estilo del sitio. El fondo se conserva.

Publicación original en LinkedIn — Publicado originalmente el 21 de agosto de 2025 · leer el original