Cada semana aparece una nueva guía rápida sobre cómo usar ChatGPT para abogados. La mayoría son atajos de marketing disfrazados de pedagogía. Y dirigirlas a profesionales del derecho que parten de cero, sin entregarles las bases críticas, no es sólo un mal servicio: es una falta a la profesión y a la andragogía.
El problema no es la herramienta, es lo que se enseña sobre ella
El argumento clásico de estas guías es el mismo: “usa este prompt, ahorra horas, sé más eficiente”. Suenan razonables. Pero promueven, casi siempre, una falsa sensación de confianza en las “capacidades” del modelo, insinuando que puede reemplazar análisis legales complejos o automatizar tareas sensibles como la redacción de contratos o el análisis de casos.
Esto es un error fundamental. ChatGPT genera texto basado en patrones estadísticos. No comprende contextos legales, no jerarquiza fuentes, no distingue un obiter dictum de una ratio decidendi, y su conocimiento está limitado en el tiempo y potencialmente desactualizado para el derecho positivo aplicable. Tampoco “sabe” cuándo no sabe.
Cuando una guía vende lo contrario por simplicidad pedagógica, el resultado previsible es un abogado que firma como propio un escrito plagado de jurisprudencia inventada o de razonamientos que no resisten una revisión seria.
Faltan las técnicas que sí marcan la diferencia
La segunda carencia es técnica. Casi ninguna guía menciona las prácticas que de verdad mitigan los riesgos del uso de IA en derecho:
- Construcción rigurosa de prompts (contexto, rol, restricciones explícitas, formatos de salida verificables).
- Métodos para verificar sistemáticamente la información generada antes de incorporarla a un escrito.
- Estrategias de descomposición de tareas, que evitan pedir al modelo conclusiones complejas en una sola consulta.
- Comprensión mínima del comportamiento del modelo: alucinación, sesgo de confirmación, deriva contextual.
Decirle a ChatGPT “actúa como el mejor abogado de México” no garantiza nada. Es una instrucción semánticamente vacía para el modelo. Sigue siendo el mismo sistema, con los mismos límites, generando texto plausible. Lo que cambia, en el mejor de los casos, es el registro estilístico de la respuesta.
Mencionar las limitaciones no basta
Algunas guías sí incluyen un párrafo final sobre “limitaciones”. Pero lo hacen casi como un descargo de responsabilidad legal, sin la seriedad que el tema exige y sin ofrecer estrategias concretas de mitigación. El lector retiene el resto: los prompts copiables, las promesas de productividad, la sensación de haber “incorporado IA” a su práctica.
En el ámbito legal, donde un error puede costar un caso, una sanción profesional o un juicio de responsabilidad, ese desequilibrio entre entusiasmo y advertencia es peligroso.
Lo que necesita el sector
En lugar de empoderar a los abogados, este tipo de materiales puede llevarlos a cometer errores graves bajo la apariencia de modernización. Es fundamental construir recursos formativos más rigurosos para introducir la inteligencia artificial en el ámbito legal: programas que combinen comprensión técnica del modelo, criterio jurídico y verificación sistemática.
Esa es exactamente la lógica de la formación y los talleres que ofrezco a equipos jurídicos, y la razón por la que insisto en empezar por las preguntas que ninguna guía rápida hace: ¿qué tarea estamos automatizando, qué riesgo tolera el cliente, y cómo verificamos lo que el modelo produce antes de firmar?
Para profundizar en esta línea, también puede interesarle por qué la extracción automatizada de datos en documentos legales sigue siendo prematura, un análisis técnico del mismo problema desde otro ángulo.