“Grok, redacta mi amparo”: la inteligencia artificial y su impacto en la práctica jurídica | Paréntesis Legal

Raymundo Manuel Salcedo Flores

 

Resumen: El presente artículo analiza el impacto de la inteligencia artificial (IA) generativa en la práctica legal contemporánea, con especial énfasis en la redacción de demandas de amparo en México. A través de un análisis crítico, el autor advierte que, si bien la IA facilita la generación de textos, carece de conocimiento jurídico especializado y presenta una tendencia intrínseca a la “adulación” o complacencia hacia el usuario. Se explora el riesgo del sesgo de confirmación en el abogado postulante y se subraya que la herramienta no sustituye el análisis técnico ni el conocimiento profundo del expediente. Finalmente, se proponen los ejercicios de jurimetría como un área de oportunidad donde la IA, bajo una supervisión experta y meticulosa, puede ofrecer un valor agregado real en la estrategia procesal.

La inteligencia artificial llegó para quedarse; con su popularización el gremio de los abogados no podía —no puede— quedarse atrás, pero, al igual que muchas de las tecnologías que llegaron para quedarse, no siempre su uso indiscriminado es la mejor opción para el postulante ni mucho menos para el justiciable.

El trabajo del día a día del abogado postulante implica revisar resoluciones, analizar escritos y planteamientos jurídicos y tomar decisiones sobre los asuntos que le son encomendados: preparar demandas, contestaciones, incidentes, recursos. La IA promete servir de ayuda para todas esas funciones.

La IA generativa de texto es precisamente eso, un programa informático que permite generar texto y responder de manera medianamente coherente a una pregunta o planteamiento del usuario. Desde 2022 se desarrolló ChatGPT y a inicios de 2023 ya era la sensación en redes sociales, al punto que muchas personas han comenzado a utilizar esa herramienta para realizar funciones de generación de texto.

No obstante, la inteligencia artificial generativa de texto no tiene, en sí misma, un conocimiento especializado en ninguna materia, pues como se ha dicho, es un modelo de lenguaje que puede responder a la solicitud del usuario y puede responder lo que este le plantea; aunque en sus términos y condiciones, la mayor parte de las IA indican que esta puede cometer errores.

Además, la IA está programada para complacer al usuario, de ahí la crítica que recientemente ha surgido sobre que la IA tiende a darle la razón al usuario sea lo que sea que plantee. De acuerdo con un estudio de la universidad de Stanford, el hecho de que la IA sea particularmente aduladora plantea riesgos en la medida en la que las personas suelen consultarla para cuestiones que implican dilemas éticos; al punto que las respuestas de los modelos fueron un 50% más aduladoras que las de los humanos cuando se plantearon comportamientos poco éticos, ilegales o dañinos.

El abogado que postula y necesita realizar una demanda de amparo, un ofrecimiento de pruebas, una contestación de demanda u otro documento importante puede intentar apoyarse en un modelo de lenguaje de este tipo. No es difícil: basta con acudir a una inteligencia artificial generativa (Grok, ChatGPT, Gemini, Copilot, etcétera) y teclear la instrucción (o prompt) “haz una demanda de amparo contra X acto”, y la IA, sin conocer mucho de los pormenores del asunto, le dará al usuario alguna respuesta.

Claramente la respuesta que se obtenga de un prompt tan burdo como el que se plantea será genérica y poco funcional si lo que se busca es obtener una resolución favorable; pero hay casos donde el usuario imprimirá y presentará el resultado ante una autoridad esperando que le sirva de algo. El augurio, en el mejor de los casos, es que quien lea esa demanda de amparo se deje envolver por la redacción tan convincente y segura de sí misma que plantea la IA, pero específicamente en los órganos jurisdiccionales federales muchos funcionarios parecen estar inoculados de esos estilos de redacción: ven cientos de demandas seguras de sí mismas que se encuentran llenas de estulticias.

Desde luego, un abogado medianamente conocedor de su materia sabrá darle algún tipo de contexto adicional a la IA o incluso los más versados le darán el acto reclamado completo y los fundamentos legales sobre los que quieren que se redacte el amparo, pero eso sólo lo hará alguien que previamente conozca la materia y sepa pedirle a la IA la redacción.

Es decir, la inteligencia artificial generativa no sustituye el conocimiento que el abogado pueda proporcionar para la solución del asunto; no obstante, aun siendo operada por un experto, el uso de la IA aún tiene riesgos. Tal como se menciona en párrafos anteriores, la IA tiende a complacer al usuario, por lo que un abogado que sea conocedor de su materia y use IA para forzar un argumento legal podría terminar creyendo que sus posibilidades son más altas que las que en realidad son, pues aquí aparece un sesgo cognitivo que los abogados no siempre suelen tomar en cuenta: el sesgo de confirmación.

Parte de la práctica profesional consiste en muchas ocasiones el consultar con colegas los asuntos que se tienen en la oficina para advertir posibles interpretaciones desviadas o fallos de razonamiento en los planteamientos que se harán ante el tribunal; quien esto escribe aconseja ampliamente consultar con colegas los asuntos antes de hacer planteamientos arriesgados y siempre buscar otras opiniones al respecto; pero de ahí a consultar los asuntos con la IA es algo mucho más arriesgado cognitivamente porque, como ya se dijo, la IA es un modelo de lenguaje, no un abogado, no un experto en un área de conocimiento, y si bien puede ayudar a plantear una idea con mayor claridad, ello no sustituye el conocimiento legal ni el trabajo que el abogado realiza en la práctica.

Así, la IA generativa puede ayudar a crear el texto, pero siempre con la supervisión y cuidado del operador que deberá ser experto en el tema, pero, además, no dejarse llevar por la faceta aduladora de la inteligencia artificial con que está programada.

El problema, desde luego, llega cuando se está ante un asunto complejo, por ejemplo, un amparo directo. Pedir a la IA que elabore una demanda de amparo directo puede ser una pésima idea si es ejecutada de forma descuidada o inexperta; pues un asunto de esa naturaleza exige un conocimiento pleno del expediente en que se actúa, que muchas veces ya está engrosado por múltiples promociones, escritos, resoluciones, etcétera; además, implica que el operador conozca las violaciones que se hayan cometido durante el procedimiento, su impugnación oportuna y la forma en que deben combatirse, amén de que el operador debe conocer si hará un planteamiento de constitucionalidad y la manera en que se preparó oportunamente ese planteamiento. Nada de esto lo proporciona, por sí misma, la inteligencia artificial. La IA puede ayudar a pulir la redacción y las ideas, pero hasta allí, y siempre que el usuario sepa cuidarse de los sesgos de confirmación, pero eso no sustituye el conocimiento que el postulante ha de tener de su expediente.

Por otro lado, las inteligencias artificiales generativas sirven bien para ejercicios de jurimetría: el análisis estadístico de casos concretos, sus resoluciones y por lo tanto, el índice de revocabilidad de resoluciones o el pronóstico procesal que puede tener un asunto en particular sobre la base del conocimiento de diversos asuntos. Como ejemplo, el usuario puede, sobre la base de las listas de resolución de los tribunales colegiados, y las versiones públicas de las sentencias, observar el sentido de sus resoluciones y llevar la estadística del sentido en que un tribunal ha resuelto casos anteriormente para poder anticipar en un caso concreto la posible resolución de un asunto.

Todo eso, sin embargo, requiere de una base de datos sólida y de la información lo más completa posible y de un operador que sea lo suficientemente meticuloso para poder realizar ese análisis con ayuda de la inteligencia artificial.

Conclusiones:

  1. La IA como herramienta, no como oráculo: La conclusión fundamental es que la IA generativa debe ser tratada como un procesador de lenguaje sofisticado y no como un consultor jurídico. Su capacidad para redactar de forma convincente puede ser una trampa para el abogado inexperto que confunde elocuencia con rigor legal.
  2. El factor humano es insustituible en el Amparo: Debido a la naturaleza técnica del amparo (especialmente el directo), la apreciación de violaciones procesales y el planteamiento de constitucionalidad dependen de una lectura integral del expediente que la IA no puede realizar de forma autónoma. La supervisión del experto es el único filtro contra la “estulticia” automatizada.
  3. Hacia una abogacía de datos: El futuro más prometedor de la IA en el despacho no está en la sustitución de la pluma del abogado, sino en la capacidad de procesar grandes volúmenes de información para realizar pronósticos procesales. La transición de una abogacía meramente redactora a una abogacía analítica (jurimetría) es donde reside el verdadero impacto transformador de estas tecnologías.
  4. Responsabilidad ética: El uso de IA impone al abogado una nueva carga de diligencia: la de verificar no solo la veracidad de las citas legales, sino de blindar su propio criterio frente a la tendencia de la máquina a darle la razón, evitando así que el entusiasmo tecnológico nuble la viabilidad real de sus pretensiones.