Precedente consecuencialista e inteligencia artificial: cuando la eficiencia judicial necesita ser simulada antes de volverse obligatoria | Paréntesis Legal

Abrahan Levi Márquez Salcedo

 

 

 

El derecho mexicano suele hablar del precedente con una solemnidad cómoda. Se dice que aporta certeza, uniformidad, coherencia y estabilidad. Todo eso puede ser cierto. También puede ser una coartada. El precedente no solo ordena criterios también distribuye poder. Decide quién gana capacidad de acción, quién queda atrapado en una regla general, quién puede litigar la excepción, quién puede pagar la estrategia y quién debe resignarse a que la justicia le explique, con cara seria, que su caso individual fue sacrificado por una razón sistémica que nunca pidió cargar.

Esa es la parte incómoda que la doctrina mexicana ha preferido mirar de reojo. La reforma constitucional de 2021 movió el sistema desde la vieja cultura de tesis hacia un modelo en el que las razones decisorias de la Suprema Corte pueden adquirir fuerza vinculante. La reforma judicial de 2024 agregó un ingrediente más delicado: redujo el umbral de votos para el precedente obligatorio del Pleno y reconfiguró los incentivos de legitimidad judicial. El artículo 222 de la Ley de Amparo dispone ahora que las razones contenidas en las sentencias del Pleno de la Suprema Corte constituyen precedentes obligatorios cuando se adopten por mayoría de seis votos, y añade una regla metodológica decisiva: las cuestiones de hecho o de derecho innecesarias para justificar la decisión no serán obligatorias (Cámara de Diputados, 2025).

Esa fórmula parece limpia. En realidad, abre una pregunta: ¿qué tipo de razones se volverán obligatorias? El sistema no distingue, con suficiente rigor, entre una razón fundada en derechos, una razón de eficiencia administrativa, una razón de estabilidad institucional, una razón de contención presupuestal o una razón de conveniencia mayoritaria. Todas pueden aparecer vestidas de constitucionalidad. Todas pueden construir una ratio. Todas pueden irradiar efectos sobre miles de casos. El problema aparece cuando esa ratio se construye desde una lógica consecuencialista que promete maximizar bienestar, eficiencia o funcionalidad, sin explicar quién paga el precio de esa maximización.

El consecuencialismo jurídico: ofrece al juez una salida aparentemente racional frente a conflictos complejos. En lugar de perderse en abstracciones, el juzgador mira resultados. Calcula efectos. Mide impactos. Evita daños mayores. El problema es que el cálculo puede convertirse en una trampa de promedio. Si el beneficio agregado parece alto, el daño localizado se vuelve tolerable. Si el sistema gana estabilidad, el individuo pierde nombre. Si la administración pública ahorra recursos, la persona vulnerable se vuelve costo. Esa operación puede ser técnicamente sofisticada y moralmente ruin. Ahí está el filo del tema.

La tesis de este artículo es que el precedente consecuencialista, aplicado en una sociedad profundamente estratificada como la mexicana, exige un control distributivo previo. Sin ese control, la eficiencia jurídica puede funcionar como una maquinaria de regresión social. El precedente deja de ser una herramienta de igualdad y se vuelve un multiplicador de ventajas para quienes ya poseen capital jurídico suficiente para explotar la regla, distinguirla, financiar su excepción o llevar una nueva controversia hasta la Corte.

La inteligencia artificial entra justamente en esa grieta. Su función no es reemplazar al juez ni convertir el precedente en producto de laboratorio, esta es mucho más incómoda y más útil: obligar al sistema a mostrar los costos que antes escondía. Una IA jurídica bien diseñada puede reconstruir la ratio, separar razones necesarias de obiter dicta, detectar cuándo una sentencia razona por consecuencias, comparar grupos afectados, simular efectos probables y advertir si la regla proyectada concentra beneficios en los estratos con mayor capital jurídico.

El consecuencialismo nació con una promesa evaluar las acciones por sus resultados. Bentham formuló el principio de utilidad como criterio para medir la corrección de normas e instituciones: una decisión sería correcta si aumenta el placer y reduce el dolor del mayor número (Bentham, 1789/2000). Mill refinó esa intuición al distinguir entre calidades de bienestar, pero conservó el núcleo del problema: la agregación de beneficios puede justificar sacrificios individuales cuando el balance general resulta positivo (Mill, 1863/2001).

En el derecho, esa lógica adquirió una versión particularmente influyente con el análisis económico. Posner defendió que la maximización de la riqueza puede operar como criterio normativo de adjudicación judicial, sobre todo en áreas donde los costos, incentivos y consecuencias institucionales pesan más que las fórmulas morales tradicionales (Posner, 1979, 1990). Su mérito fue desmontar una mentira del formalismo respecto a que los jueces sí producen consecuencias económicas y sociales. Su defecto fue otro: asumir que la eficiencia puede ocupar el sitio de la justicia sin dejar demasiados escombros.

El problema no consiste en mirar consecuencias. Sería ingenuo pedirle a un tribunal constitucional que resuelva como si sus sentencias no alteraran presupuestos, incentivos, cargas administrativas, expectativas ciudadanas o arreglos institucionales. MacCormick explicó con precisión que los argumentos de consecuencias forman parte legítima del razonamiento jurídico, siempre que se integren dentro de una estructura justificativa compatible con principios, coherencia y universalización (MacCormick, 1978). El punto delicado está en la jerarquía porque esas consecuencias pueden informar la decisión, pero no devorar los derechos.

Rawls lo vio desde la teoría de la justicia: una concepción agregativa del bienestar puede permitir que las pérdidas de algunos sean compensadas por las ganancias de otros, aunque los primeros terminen soportando una carga que jamás aceptarían desde una posición de igualdad (Rawls, 1971/1999). Dworkin llevó esa crítica al terreno jurídico con una fórmula que sigue siendo incómoda para cualquier juez seducido por el cálculo: los derechos funcionan como triunfos frente a la utilidad colectiva (Dworkin, 1977, 1986). Cuando el derecho fundamental aparece, la aritmética del bienestar pierde soberbia.

Un tribunal puede razonar por consecuencias, pero debe decir qué consecuencias importan, para quién, con qué evidencia, bajo qué límites y con qué protección frente a cargas desiguales. Sin esas condiciones, el consecuencialismo se vuelve una licencia para sacrificar a quienes resultan menos visibles en la estadística. Porque en el México que vivimos la justicia constitucional empieza a parecer una contabilidad con toga prolija en números, torpe en humanidad.

El precedente obligatorio tiene su legitimidad en la razón decisoria identificable, necesaria para resolver el caso, generalizable sin deformar los hechos y suficientemente justificada para vincular a otros tribunales. MacCormick y Summers mostraron que los sistemas de precedentes requieren una disciplina metodológica intensa: distinguir ratio decidendi, obiter dicta, hechos relevantes, nivel de generalidad y fuerza institucional del criterio (MacCormick & Summers, 1997). Donde esa disciplina falla, el precedente se vuelve un animal de sombras: todos lo invocan, pocos saben qué obliga y casi nadie pregunta qué efectos produce.

México heredó durante décadas una cultura de tesis. Esa cultura entrenó al foro para buscar rubros, frases útiles y registros digitales, no para reconstruir razones. La reforma de 2021 intentó desplazar ese hábito hacia un modelo de precedentes. El artículo 218 de la Ley de Amparo exige que la tesis recoja hechos relevantes, criterio jurídico y síntesis de la justificación; esa arquitectura apunta, al menos formalmente, hacia una metodología de ratio (Cámara de Diputados, 2025). Sin embargo, la práctica jurídica mexicana sigue arrastrando el viejo reflejo: cortar una frase de la sentencia, convertirla en regla amplia y aplicarla como si hubiera nacido limpia de hechos, tensiones y límites.

Ahí se instala el riesgo. Cuando la Suprema Corte construye una razón consecuencialista, esa razón puede convertirse en mandato nacional. Un criterio dictado para evitar colapso administrativo en un sector específico puede terminar negando tutela efectiva en casos individuales no previstos. Un criterio diseñado para proteger finanzas públicas puede cerrar puertas a prestaciones indispensables. Un criterio pensado para evitar abusos procesales puede acabar dificultando el acceso de personas vulnerables que ni siquiera tuvieron condiciones reales para litigar bien.

La fuerza del precedente consiste en reducir discrecionalidad. Su peligro aparece cuando reduce también sensibilidad constitucional. El precedente obliga porque estabiliza razones, pero esa estabilidad se vuelve peligrosa cuando congela un cálculo de consecuencias mal distribuido. En ese punto, la uniformidad deja de ser virtud y empieza a funcionar como una forma refinada de indiferencia.

La reforma judicial de 2024 agregó presión a esa estructura. El decreto publicado el 15 de septiembre de 2024 modificó la arquitectura del Poder Judicial de la Federación, incorporó la elección de cargos judiciales y ajustó, entre otros puntos, la regla constitucional relativa a los precedentes del Pleno de la Suprema Corte, que ahora pueden ser obligatorios por mayoría de seis votos (Diario Oficial de la Federación, 2024). Una mayoría más estrecha puede producir una razón vinculante de enorme alcance. En términos deliberativos, el sistema pide menos consenso para generar más efecto. La ecuación es peligrosa.

Cuando el umbral baja, la calidad argumentativa debe subir. Cuando el precedente puede surgir con menor consenso, el escrutinio de su ratio, sus límites y sus consecuencias debe ser más severo. De lo contrario, el sistema cambia ocho votos por seis y pretende que el déficit deliberativo se cubra con buena voluntad. La Constitución no funciona con buenos deseos; funciona con razones.

El consecuencialismo podría defenderse con mayor tranquilidad en una sociedad relativamente homogénea, con acceso equilibrado a representación jurídica, ingresos suficientes, educación procesal básica y tribunales igualmente disponibles para todos. México no es ese país. Aquí la regla general no golpea igual a todos. Un precedente adverso para un gran contribuyente puede ser una molestia estratégica; para una persona pobre, puede ser cierre definitivo. Para una empresa, distinguir un precedente es una línea de litigio. Para una mujer indígena sin asesoría, es una puerta escrita en idioma ajeno.

Los datos recientes obligan a abandonar la comodidad del análisis abstracto. En 2024, la pobreza multidimensional alcanzó 29.6% de la población mexicana, equivalente a 38.5 millones de personas; la pobreza extrema fue de 5.3%, es decir, aproximadamente 7 millones de personas (INEGI, 2025). La cifra mejoró frente a mediciones anteriores, pero sigue mostrando una realidad dura: millones de personas viven con carencias que afectan directamente su capacidad de convertir un derecho en una acción exigible.

La Regla NSE AMAI 2024 conserva una estratificación en niveles E, D, D+, C-, C, C+ y A/B, construida a partir de variables como conexión a internet, número de baños, automóviles, dormitorios, ocupados y nivel educativo de la persona jefa de hogar (AMAI, 2024). Esa clasificación no sirve únicamente para estudios de mercado. También revela un dato jurídico brutal el hecho de que acceso a la justicia se distribuye por infraestructura doméstica, educación, movilidad, conectividad y dinero. El expediente electrónico, la asesoría especializada, la posibilidad de viajar, imprimir, escanear, entender una notificación o pagar un peritaje no caen del cielo. Pertenecen a una estructura material con la que no todos los mexicanos contamos.

Por eso, hablar de precedentes en México sin hablar de estratos sociales es una forma de frivolidad doctrinal. El mismo criterio puede tener impactos distintos según el grupo afectado. Un precedente que restringe una vía procesal puede ser razonable para frenar litigios abusivos de actores poderosos y, al mismo tiempo, devastador para personas que solo tienen esa vía para hacerse escuchar. Un precedente que favorece la eficiencia administrativa puede ordenar mejor al Estado, pero también puede transferir el costo de esa eficiencia hacia quienes carecen de fuerza política para resistir.

Quien tiene capital jurídico entiende el precedente, identifica excepciones, construye distinguish, financia expertos y transforma una regla adversa en litigio creativo. Quien carece de ese capital recibe el precedente como sentencia anticipada. Porque su derecho le llega ya interpretado, ya cerrado, ya derrotado.

En este punto, el consecuencialismo muestra su cara más incómoda. Si el juez mira solo el resultado agregado, puede concluir que cierto criterio produce estabilidad, reduce carga judicial o evita costos públicos. Pero si no desagrega los efectos por grupo social, el razonamiento queda incompleto. Peor aún queda sesgado. Porque estamos dentro de un sistema desigual que siempre hace que los costos se depositen con mayor facilidad sobre quienes tienen menos mecanismos de defensa.

Para controlar el impacto distributivo del precedente, primero hay que identificar cuándo una sentencia razona de manera consecuencialista. No toda referencia a efectos convierte una decisión en consecuencialista. Una sentencia puede considerar consecuencias como parte de una ponderación constitucional y mantener el centro en los derechos. La ratio se vuelve consecuencialista cuando el criterio decisivo para resolver se apoya en la producción, prevención o administración de efectos sistémicos, económicos, institucionales, presupuestales, sociales o políticos.

La identificación exige cinco preguntas. Primera: ¿la decisión justifica el resultado por el contenido del derecho o por el efecto que produciría reconocerlo? Segunda: ¿el tribunal describe el daño individual con la misma intensidad con que describe el daño sistémico? Tercera: ¿la sentencia aporta evidencia sobre las consecuencias que invoca? Cuarta: ¿explica qué grupo soportará los costos del criterio? Quinta: ¿delimita excepciones para evitar cargas desproporcionadas sobre grupos vulnerables?

Cuando la sentencia responde mal esas preguntas, la razón que la contiene fue emitida sin pensar en el cálculo sin control. Esto no invalida por sí mismo el criterio, pero obliga a revisarlo con más severidad. El problema de muchas decisiones consecuencialistas es su manera de esconder supuestos. Hablan de orden público sin probar afectación real. Invocan estabilidad institucional sin demostrar riesgo concreto. Mencionan impacto presupuestal sin contrastarlo con mínimo vital, igualdad o acceso efectivo a derechos. Defienden eficiencia procesal sin medir cuántas personas quedarán fuera del sistema.

MacCormick permite construir una taxonomía útil. Los argumentos de consecuencia pueden ser legítimos si se integran a una justificación coherente con principios y si sus efectos pueden universalizarse sin contradicción (MacCormick, 1978). Sunstein, desde el minimalismo judicial, también muestra que los tribunales pueden decidir estrechamente para evitar daños institucionales no previstos; pero el minimalismo exige cuidado en el alcance de la regla, no pereza argumentativa disfrazada de prudencia (Sunstein, 1999).

La ratio consecuencialista debe ser tratada como material inflamable. Puede iluminar un problema, pero también quemar el caso si se manipula sin control. Para volverla constitucionalmente tolerable se requiere, al menos, evidencia, delimitación, distribución y reversibilidad. Evidencia de que las consecuencias existen. Delimitación del alcance de la regla. Distribución clara de cargas y beneficios. Reversibilidad o mecanismos de excepción cuando el criterio produzca efectos intolerables en casos concretos.

Sin esos elementos, el precedente consecuencialista funciona como una generalización autoritaria. El tribunal decide por todos a partir de un cálculo que nadie puede revisar. Y cuando un cálculo judicial no puede revisarse, el problema ya no es metodológico. Es democrático.

La inteligencia artificial puede funcionar como simulador del precedente en este punto porque el problema ya no es solo filosófico se Vuelve operativo. Si el precedente reparte poder y el consecuencialismo puede esconder daños detrás de beneficios agregados, el sistema necesita una herramienta capaz de leer sentencias en masa, reconstruir razones, detectar patrones y proyectar efectos. La dogmática sola puede hacerlo caso por caso. La IA puede mostrar el mapa completo -Siendo conscientes de que ese es su valor y también su peligro-.

El uso serio de IA en este campo no consiste en pedirle a un modelo que diga quién debe ganar. Esa idea es jurídicamente pobre y constitucionalmente peligrosa. La IA útil para una tesis sobre precedente y amparo debe operar como una tecnología de apoyo argumentativo: clasifica, contrasta, alerta, simula y documenta. El criterio final pertenece al juez, al litigante o al investigador. El algoritmo no tiene legitimidad, no escucha a las partes, no asume responsabilidad pública y no puede motivar una sentencia en sentido constitucional. Lo que sí puede hacer es algo más modesto y más poderoso como lo es revelar inconsistencias que el sistema humano normalizó por cansancio, rutina o conveniencia -agarra un machote para escribir todas tus demandas y reproducirás los mismos errores cientos de veces, porque asumiste que era perfecto o útil-.

Una IA entrenada sobre sentencias de la Suprema Corte, tesis aisladas, jurisprudencia, votos concurrentes y disidentes, demandas de amparo y resoluciones de tribunales colegiados podría identificar la estructura mínima de una decisión. Primero, hechos jurídicamente relevantes. Después, problema constitucional. Luego, premisas normativas. Más adelante, razones necesarias para decidir. Por último, consecuencias invocadas y alcance de la regla. Ese procesamiento permitiría separar la ratio del ruido. En México, donde todavía se litiga demasiadas veces con rubros y frases arrancadas de contexto, esa operación tiene una utilidad brutal.

La IA también puede detectar cuándo una sentencia se desplaza del lenguaje de derechos al lenguaje de consecuencias. Puede marcar frases que apelan a colapso institucional, carga financiera, eficiencia administrativa, seguridad jurídica, estabilidad del sistema, orden público o riesgo de litigiosidad masiva. Esas expresiones no son inválidas por sí mismas. El problema aparece cuando sustituyen la prueba. Una IA bien diseñada podría preguntar, casi como Ministerio Público incómodo del razonamiento: ¿dónde está la evidencia?, ¿qué datos sostienen la consecuencia?, ¿qué grupo recibe la carga?, ¿qué alternativa menos lesiva fue descartada?, ¿la regla contiene excepciones?

Este enfoque coincide con los estándares contemporáneos de IA responsable. La Recomendación de la UNESCO sobre ética de la inteligencia artificial coloca derechos humanos, dignidad, supervisión humana, transparencia y equidad como ejes de gobernanza (UNESCO, 2021). El Marco de Gestión de Riesgos de IA del NIST propone gestionar los riesgos mediante funciones de gobernanza, mapeo, medición y administración, precisamente para evitar impactos no previstos sobre personas, organizaciones y sociedad (NIST, 2023). La OCDE actualizó en 2024 sus principios para IA confiable, con énfasis en derechos humanos, valores democráticos, transparencia, responsabilidad y robustez (OECD, 2024). Traducido al problema del precedente: una IA jurídica no debe ser oráculo; debe ser bitácora, sensor y alarma.

Esto sería construir un modelo de simulación del impacto del precedente obligatorio sobre la sociedad mexicana, -pero ojo punto no es decorar el análisis con tecnología-. El punto es cambiar la pregunta. La discusión tradicional pregunta si el precedente es correcto. La simulación pregunta algo más contundente: qué le hace ese precedente a la sociedad cuando baja desde la Corte hasta la vida ordinaria -así como se cuestionan las normas cuestionemos a los precedentes que emite la Corte”.

La simulación permite tomar una ratio consecuencialista y proyectarla sobre distintos estratos sociales. Para ello, el modelo debe partir de variables de entrada claras: tipo de precedente, orientación filosófica de la ratio, derecho afectado, grupo impactado, capital jurídico disponible, nivel socioeconómico, ubicación territorial, acceso a representación técnica, conectividad, posibilidad de reunir prueba y costo de sostener litigio.

Las variables de salida serían igualmente precisas generando así acceso efectivo a derechos, dirección redistributiva del criterio, cohesión social y legitimidad institucional. Si el precedente mejora eficiencia procesal pero reduce el acceso de grupos vulnerables, el modelo debe mostrarlo. Si evita litigios abusivos de actores poderosos sin afectar a quienes litigan desde precariedad, también debe mostrarlo. Si concentra beneficios en empresas, autoridades o litigantes sofisticados, no debe esconderlo detrás de la palabra estabilidad.

El modelo puede operar en dos capas. La primera sería estática: analiza el impacto probable de un precedente específico en un momento determinado. La segunda sería dinámica: calcula efectos acumulados cuando una misma lógica consecuencialista se repite durante años. Esta segunda capa es decisiva. Muchas reglas regresivas no destruyen derechos de golpe. Los van adelgazando con paciencia burocrática. Un requisito procesal aquí, una carga probatoria allá, una improcedencia amplia, una excepción estrecha, una deferencia excesiva a la administración. Al final, el derecho sigue escrito, pero solo lo pueden usar quienes tienen dinero, tiempo y abogado especializado.

La teoría de sistemas de Luhmann permite comprender ese fenómeno sin convertirlo en simple causalidad lineal. El derecho opera como sistema que reduce complejidad mediante decisiones; cada precedente irrita a otros sistemas, como economía, política, administración pública y educación jurídica (Luhmann, 2004). La IA y el modelado basado en agentes pueden traducir esa intuición en una arquitectura de simulación: agentes con distinto capital jurídico responden de manera distinta a la misma regla. El actor fuerte adapta estrategia; el vulnerable abandona litigio. La empresa internaliza el costo; la persona pobre pierde el derecho. El tribunal ve uniformidad. La sociedad recibe desigualdad.

Esa es la aportación metodológica: usar IA para volver visible la distancia entre igualdad formal e impacto material. La Corte puede decir que su precedente aplica para todos. El modelo puede contestar: sí, pero no pesa igual sobre todos y al final esa respuesta vale oro.

Ojo, como ya he señalado en otros de mis trabajos en esta revista académica la IA puede ayudar a medir desigualdad, pero también puede reproducirla con una eficacia obscena. Si se entrena con sentencias que ya invisibilizan a ciertos grupos, aprenderá a invisibilizarlos mejor. Si se alimenta con criterios formalistas, repetirá formalismo con velocidad industrial. Si la base de datos contiene decisiones sesgadas, el modelo no las purificará; las convertirá en patrón.

La experiencia comparada ofrece advertencias suficientes. Los sistemas de evaluación de riesgo en justicia penal, como COMPAS, fueron cuestionados por producir resultados con impactos raciales diferenciados y por operar con opacidad incompatible con una defensa efectiva (Angwin et al., 2016). O’Neil describió este tipo de modelos como mecanismos matemáticos que aumentan desigualdad cuando son opacos, escalables y dañinos (O’Neil, 2016). Citron y Pasquale advirtieron que la sociedad puntuada puede afectar oportunidades vitales sin transparencia suficiente ni mecanismos reales de impugnación (Citron & Pasquale, 2014). Por eso recordemos que un algoritmo sin control puede convertirse en la misma coartada que pretende denunciar.

Por eso la IA de esta debe construirse contra tres fantasías. Primera fantasía: la neutralidad. Ningún modelo es neutral si sus datos, etiquetas, variables y objetivos reflejan decisiones humanas. Segunda fantasía: la precisión autosuficiente. Un modelo puede acertar patrones estadísticos y fallar jurídicamente porque el derecho no se agota en correlaciones. Tercera fantasía: la eficiencia como legitimidad. Resolver más rápido no significa resolver mejor. La velocidad sin justicia solo produce errores con mejor presentación.

La Unión Europea adoptó el Reglamento 2024/1689, conocido como Ley de Inteligencia Artificial, bajo un enfoque basado en riesgos que somete ciertos sistemas a obligaciones reforzadas cuando pueden afectar derechos y ámbitos sensibles (Unión Europea, 2024). El Convenio Marco del Consejo de Europa sobre inteligencia artificial, derechos humanos, democracia y Estado de derecho, abierto a firma en 2024, insiste en que las actividades del ciclo de vida de la IA deben ser consistentes con derechos humanos, democracia y Estado de derecho, con exigencias de transparencia, supervisión, responsabilidad, igualdad y remedios efectivos (Consejo de Europa, 2024). La señal comparada es clara: mientras más cerca está la IA de derechos, más severo debe ser su control.

En materia de precedentes, la IA debe funcionar bajo una regla de humildad institucional, sí puede sugerir que una ratio es consecuencialista, sí puede detectar que una carga se concentra en un grupo, claro que puede comparar patrones, fácilmente simulara efectos, y evidentemente puede proponer líneas de distinguish, pero no puede declarar obligatoria una razón, ni estrechar un derecho, ni decidir que un sacrificio social es aceptable. Esa decisión exige responsabilidad jurídica, motivación pública y posibilidad de crítica, -la propuesta del modelo hace entrega de la brújula pero el Juez sigue cargando el mapa-.

El modelo debe tener una arquitectura mínima de cinco módulos. El primero es el módulo de extracción de sentencia. Su tarea consiste en procesar el texto completo de la resolución y separar hechos relevantes, litis, normas aplicadas, argumentos de las partes, consideraciones centrales, votos y efectos. Esta extracción debe ser verificable. Cada salida del modelo debe remitir al fragmento exacto de la sentencia de donde proviene.

El segundo módulo es el de identificación de ratio. Aquí la IA debe distinguir entre razón necesaria, argumento auxiliar, obiter dicta, contexto histórico y comentario retórico. Esta fase puede apoyarse en criterios de MacCormick y Summers: necesidad para resolver, relación con hechos materiales, nivel de generalidad y capacidad de generalización. El modelo no debe inventar la ratio; debe proponerla con evidencia textual y permitir que el operador humano la acepte, corrija o rechace.

El tercer módulo es el clasificador filosófico. Su función consiste en detectar si la ratio se orienta por derechos, principios, proporcionalidad, eficiencia, estabilidad institucional, prevención de consecuencias, deferencia administrativa o conveniencia presupuestal. La clasificación no debe ser binaria. Muchas sentencias son mixtas. Lo importante es determinar qué razón manda.

El cuarto módulo es el simulador distributivo. A partir de la ratio identificada, el modelo proyecta efectos sobre estratos sociales diferenciados. Para ello cruza variables como NSE AMAI, pobreza multidimensional, conectividad, distancia territorial, acceso a representación, tipo de derecho afectado, duración esperada del litigio, costo probatorio y capacidad de sostener recursos.

El quinto módulo es el generador de control argumentativo. Su salida debe ser útil para litigantes, jueces e investigadores: preguntas críticas, hipótesis de distinguish, advertencias de sesgo, alternativas menos regresivas, necesidad de excepción y exigencias probatorias para sostener la consecuencia invocada.

Esta arquitectura permite al sistema mexicano motivación contemporánea y trazabilidad probatoria. Si una sentencia invoca colapso administrativo, la IA debe pedir datos. Si habla de litigiosidad masiva, debe exigir base empírica. Si menciona estabilidad presupuestal, debe contrastar alternativas. Si sacrifica acceso a derechos, debe mostrar quién lo pierde. La autoridad ya no podría esconder una decisión distributiva detrás de una fórmula abstracta. Tendría que responder por sus daños previsibles.

El precedente mexicano ya no puede esconderse detrás de la palabra certeza. La certeza puede ordenar el sistema, pero también puede estabilizar injusticias. Cuando la ratio se construye desde consecuencias agregadas y se vuelve obligatoria con mayoría reducida, el riesgo constitucional aumenta. La regla deja de resolver un caso y empieza a administrar vidas ajenas.

La inteligencia artificial ofrece una posibilidad de simular antes de imponer, medir antes de generalizar, distinguir antes de obedecer ciegamente. Puede ayudar a identificar razones consecuencialistas encubiertas, mapear impactos por estrato social, detectar cargas regresivas, formular excepciones y construir distinguish con rigor. También puede convertirse en una fábrica de sesgos si se usa sin explicabilidad, sin auditoría y sin responsabilidad humana. La herramienta no es inocente. El diseño decide si ilumina o encubre.

Por tanto, ningún precedente consecuencialista debería adquirir fuerza expansiva sin una evaluación distributiva mínima. Si la Corte invoca eficiencia, debe probarla. Si invoca estabilidad, debe delimitarla. Si desplaza costos, debe decir sobre quién caen. Si la regla afecta más a quienes menos capital jurídico tienen, debe contener válvulas de corrección. Y si el sistema cuenta con IA capaz de simular esos efectos, su omisión se vuelve cada vez menos defendible.

La justicia constitucional no necesita jueces robot. Necesita jueces que razonen mejor, litigantes que distingan con más precisión y precedentes que respondan por sus consecuencias. La IA puede servir para eso: no como reemplazo de la razón jurídica, sino como bisturí contra la comodidad del promedio. Si el precedente va a mandar sobre todos, que al menos tenga la decencia de mostrar quién paga la cuenta -porque tanto la vieja como de la nueva Corte no se analizó que podía pasar con cada sentencia que se dicta-.

 

 

Referencias

AMAI. (2024). Nota metodológica: Regla NSE AMAI 2024. Asociación Mexicana de Agencias de Inteligencia de Mercado y Opinión.

Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016). Machine bias. ProPublica.

Barocas, S., Hardt, M., & Narayanan, A. (2019). Fairness and machine learning: Limitations and opportunities. fairmlbook.org.

Bentham, J. (2000). An introduction to the principles of morals and legislation. Batoche Books. (Obra original publicada en 1789).

Cámara de Diputados del H. Congreso de la Unión. (2025). Ley de Amparo, Reglamentaria de los artículos 103 y 107 de la Constitución Política de los Estados Unidos Mexicanos. Última reforma publicada en el Diario Oficial de la Federación el 16 de octubre de 2025.

Citron, D. K., & Pasquale, F. (2014). The scored society: Due process for automated predictions. Washington Law Review, 89, 1-33.

Consejo de Europa. (2024). Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law, CETS No. 225.

Diario Oficial de la Federación. (2024, 15 de septiembre). Decreto por el que se reforman, adicionan y derogan diversas disposiciones de la Constitución Política de los Estados Unidos Mexicanos, en materia de reforma del Poder Judicial.

Dworkin, R. (1977). Taking rights seriously. Harvard University Press.

Dworkin, R. (1986). Law’s empire. Harvard University Press.

Instituto Nacional de Estadística y Geografía. (2025). Análisis de los resultados de la medición de la pobreza multidimensional, 2024.

Luhmann, N. (2004). Law as a social system. Oxford University Press.

MacCormick, N. (1978). Legal reasoning and legal theory. Oxford University Press.

MacCormick, N., & Summers, R. S. (Eds.). (1997). Interpreting precedents: A comparative study. Routledge.

Mill, J. S. (2001). Utilitarianism. Batoche Books. (Obra original publicada en 1863).

National Institute of Standards and Technology. (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0). NIST AI 100-1.

O’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown.

OECD. (2024). OECD AI Principles. OECD.AI Policy Observatory.

Posner, R. A. (1979). Utilitarianism, economics, and legal theory. The Journal of Legal Studies, 8(1), 103-140.

Posner, R. A. (1990). The problems of jurisprudence. Harvard University Press.

Rawls, J. (1999). A theory of justice (Rev. ed.). Harvard University Press. (Obra original publicada en 1971).

Selbst, A. D., Boyd, D., Friedler, S. A., Venkatasubramanian, S., & Vertesi, J. (2019). Fairness and abstraction in sociotechnical systems. Proceedings of the Conference on Fairness, Accountability, and Transparency, 59-68.

Sunstein, C. R. (1999). One case at a time: Judicial minimalism on the Supreme Court. Harvard University Press.

UNESCO. (2021). Recomendación sobre la ética de la inteligencia artificial.

Unión Europea. (2024). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial.