Alejandra Loya Guerrero
Concluyeron las campañas electorales para la implementación de la reforma al Poder Judicial y, entre todas las propuestas de los distintos candidatos, hubo una constante: la necesidad de modernizar el sistema de justicia mediante la implementación de nuevas tecnologías. El discurso dominante gira en torno a la eficiencia, la productividad y la digitalización de los procesos jurisdiccionales. Pero esta apuesta por la inteligencia artificial (IA), ¿qué implica realmente para el acceso a la justicia? ¿Puede la tecnología garantizar imparcialidad o corre el riesgo de reproducir y profundizar desigualdades estructurales?
La inteligencia artificial es una rama de las ciencias computacionales enfocada en el diseño de sistemas capaces de emular funciones cognitivas humanas, como el aprendizaje, el razonamiento, la interpretación del lenguaje y la resolución de problemas. En palabras simples: busca simular el razonamiento humano para generar respuestas y soluciones automatizadas. Si bien su origen parece sacado de la ciencia ficción —como lo retrató el checo Karel Čapek en su obra teatral R.U.R. (Robots Universales Rossum) en 1921—, su uso actual ya es una realidad en distintos sectores, incluido el jurídico.
Sin embargo, la IA no razona desde valores humanos ni comprende los fines últimos del derecho: solo opera para optimizar resultados en función de patrones aprendidos. Geoffrey Hinton, considerado uno de los “padres” de la IA moderna, ha advertido sobre múltiples riesgos asociados a su uso: desde la generación de noticias falsas, la polarización social, la creación de contenidos apócrifos (deepfakes), hasta el diseño de armamento autónomo. Pero hay un riesgo menos visible, aunque igual de preocupante: la perpetuación de estereotipos, sesgos estructurales y patrones discriminatorios.
Esto ocurre porque los algoritmos de IA se entrenan a partir de grandes volúmenes de datos que reflejan el mundo tal como es —con todas sus desigualdades— y no como debería ser. En este sentido, la inteligencia artificial puede reforzar sesgos, especialmente en decisiones judiciales que deben analizarse con perspectiva de género, enfoque de interseccionalidad o reconocimiento a la cosmovisión de los pueblos originarios o indígenas. Lejos de garantizar objetividad, la IA puede terminar institucionalizando la discriminación bajo una falsa apariencia de neutralidad.
Por ejemplo, un sistema de análisis predictivo que se base en sentencias previas sin un escrutinio crítico podría replicar decisiones judiciales que hayan invisibilizado la violencia económica en relaciones de pareja o que hayan negado medidas de protección a mujeres indígenas por no cumplir con “estándares de urgencia” diseñados desde visiones occidentalizadas del peligro. El principio de igualdad ante la ley, consagrado en nuestra Constitución y en tratados internacionales, se ve gravemente comprometido cuando los sistemas automatizados replican estos sesgos sin filtros.
Además, surgen preguntas fundamentales: ¿puede una sentencia ser redactada completamente por IA? ¿Quién sería responsable en caso de errores, omisiones o afectaciones a derechos fundamentales? ¿Podemos permitir que una máquina tome decisiones que afectan vidas humanas sin intervención humana crítica?
Desde luego, la inteligencia artificial tiene un enorme potencial como herramienta de apoyo para la labor jurisdiccional. Puede agilizar la redacción de proyectos, facilitar la consulta de jurisprudencia, revisar contratos con mayor eficiencia o identificar patrones en expedientes complejos. Existen plataformas como Klarity, Luminance o Harvey AI que ya trabajan en este sentido. Incluso, herramientas como ChatGPT o Copilot pueden auxiliar en tareas de redacción y sistematización normativa.
Estas ventajas son innegables: mejora la eficiencia, reduce cargas de trabajo, profesionaliza criterios y democratiza el acceso al conocimiento jurisprudencial. Pero esta tecnología debe ser utilizada con extrema prudencia: como asistente, no como sustituto de la persona juzgadora.
La supervisión humana es indispensable para garantizar que el juicio no se deshumanice. Solo una persona formada en derechos humanos, con sensibilidad social y conciencia jurídica puede interpretar adecuadamente las complejidades de un caso, valorar pruebas con contexto y resolver con perspectiva de justicia. La IA no puede —ni debe— decidir en temas donde están en juego derechos fundamentales, relaciones desiguales de poder o situaciones de vulnerabilidad.
Asimismo, deben tomarse precauciones en el uso de datos sensibles. La alimentación de sistemas con expedientes judiciales requiere una estricta protección de los datos personales de las y los justiciables, especialmente en casos familiares, de género o de personas menores de edad.
En México, aún no existe una regulación específica que norme el uso de IA en funciones jurisdiccionales. Ya en septiembre de 2024, la ONU advirtió que el desarrollo de esta tecnología no puede quedar únicamente en manos del mercado, e instó a crear mecanismos globales de regulación. El informe expresó una “máxima preocupación” por las formas en que la IA puede ser utilizada para violentar derechos humanos, tanto en conflictos armados como en escenarios cotidianos de administración pública y justicia.
Frente a este panorama, urge construir una política pública clara y con enfoque de derechos humanos sobre el uso de IA en el Poder Judicial. La tecnología, si no es supervisada y regulada, puede ser una herramienta de injusticia automatizada.
Porque la justicia, para ser justa, necesita sensibilidad, escucha, razonamiento ético y perspectiva. Y eso, al menos por ahora, no puede programarse en un algoritmo.
Texto mejorado mediante inteligencia artificial.