La trampa del algoritmo, cómo la inteligencia artificial reemplaza la deliberación jurídica por la repetición automatizada del sesgo | Paréntesis Legal

La incorporación de sistemas de inteligencia artificial como soporte en la toma de decisiones jurídicas se ha normalizado en distintos ámbitos de la administración pública y de la función jurisdiccional. En ese proceso, la tecnología deja de presentarse como una herramienta neutral de organización de información y comienza a operar como un factor que condiciona la forma en que se estructuran las razones que sostienen una decisión.

El problema no se localiza en el uso instrumental de sistemas de apoyo, sino en el desplazamiento progresivo del punto en el que el juicio se forma y se hace atribuible a una autoridad jurídicamente responsable.

La motivación de las decisiones constituye uno de los núcleos duros del derecho constitucional y procesal, motivar equivale a exponer el itinerario racional que conduce a él, de modo que pueda ser comprendido, controvertido y revisado, el cual, cumple una función de control del poder; sin embargo, cuando una decisión se apoya de manera significativa en un sistema algorítmico cuyo funcionamiento efectivo no forma parte del expediente ni del intercambio procesal, la motivación deja de contener la totalidad del razonamiento que explica el resultado.

El expediente puede mostrar una decisión formalmente estructurada, con referencias normativas, valoración probatoria y razonamientos concatenados, pero, la selección previa de variables relevantes, la priorización de precedentes o la clasificación de supuestos fácticos ya se ha producido en un estadio anterior, fuera del espacio en el que las partes formulan argumentos y el órgano decisor los confronta. Convirtiéndose así en una reconstrucción parcial, no porque falten palabras, sino porque parte del proceso decisorio no es jurídicamente visible.

En el modelo clásico, la decisión pertenece a quien la firma porque es posible identificar el punto en el que ese sujeto asumió una toma de postura frente a alternativas normativas plausibles. Un claro ejemplo es cuando el juez o la autoridad administrativa decide siempre desde algún horizonte interpretativo, aun cuando no lo explicite, lo que permite imputar responsabilidad, exigir coherencia y activar mecanismos de control. Por otro lado, cuando el soporte algorítmico ordena previamente el campo de opciones, la decisión conserva autor formal, pero pierde densidad como acto de elección jurídicamente atribuible.

Esto es, porque la inteligencia artificial no decide desde una teoría del derecho. Opera a partir de correlaciones, frecuencias y patrones derivados de decisiones anteriores, un modo de operar que no distingue entre decisiones sólidamente argumentadas y decisiones adoptadas por inercia institucional, causando con esto que la regularidad se convierte en criterio operativo, -y, entiendo perfectamente, si el resultado aparece como razonable porque se asemeja a lo que ya ocurrió, no debemos perder de vista que no es debido a que haya sido sometido a un contraste deliberativo pleno en el caso concreto, pudiendo ser una falacia del algoritmo-.

Aunque se presente como una herramienta técnicamente neutra, lo cierto es que toda configuración algorítmica refleja una forma particular de entender el derecho y su función en la vida social. Ya sea que se entrene con datos históricos, con precedentes judiciales o con parámetros normativos, el algoritmo hereda inevitablemente el marco teórico y axiológico que estructura ese conjunto de información. En este punto, el sesgo no se genera por error técnico, sino por la visión jurídica de su operador que orienta el sistema, -misma que, todo ser humano tenemos-.

Desde una perspectiva positivista, el algoritmo se limita a identificar patrones normativos a partir de normas vigentes y decisiones anteriores, asumiendo que el derecho es un conjunto cerrado de reglas cuya aplicación es objetivamente verificable. El problema es que este enfoque omite deliberadamente los contextos fácticos, la diversidad interpretativa y la dimensión moral de los casos difíciles; lo que en la práctica generaría una reproducción automatizada de decisiones formalmente correctas, pero materialmente injustas, que consolidan inercias institucionales sin revisar su contenido ético.

En contraste, una mirada iusnaturalista buscaría incorporar principios universales de justicia o valores intrínsecos al análisis automatizado, pero como los algoritmos no pueden derivar valores sustantivos de datos sin una codificación previa, lo que en realidad sucede es una simulación de moralidad basada en correlaciones débiles o aproximaciones estadísticas, convertiría los valores en variables instrumentales, no en fundamentos normativos deliberados, causando con esto que su fuerza crítica se debilite completamente frente al statu quo.

La visión objetivista, por su parte, inicia del supuesto de que existe una única respuesta correcta en el derecho que puede ser alcanzada mediante razonamiento estructurado; sin embargo, bajo esta lógica, los algoritmos adquieren una pretensión de infalibilidad técnica, donde el resultado se presenta como inevitable o “natural”, y no dejaría el espacio del desacuerdo a partir del argumento razonado. Con lo cual, una sentencia bajo este esquema deja de ser una toma de postura jurídicamente asumida y se transforma en una conclusión auto justificada por la eficiencia del sistema.

Por otro lado, el enfoque pragmatista, aparentemente más flexible, tampoco escapa al sesgo, porque al privilegiar los efectos y consecuencias prácticas de las decisiones, el algoritmo optimiza resultados con base en lo que ha funcionado antes, sin someterlo a un juicio crítico. Causando con esto que la “efectividad” se convierta en el nuevo criterio de validez, y el precedente se transforma en una rutina de utilidad, no en una construcción deliberativa de sentido. Así, se consolida una lógica de decisión que privilegia la repetición de lo funcional por encima de la reflexión sobre lo justo.

En todos los casos, se trata de un desplazamiento real en el punto donde se forma y se imputa la decisión, se formula antes de que el conflicto llegue a su punto de tensión jurídica. Causando con esto que desde su creación la sentencia ya venga sesgada, no porque el operador lo decida de forma consciente, sino porque el sistema que le sirve de base está atravesado por una filosofía jurídica que filtra, ordena y limita el alcance de lo que puede ser decidido, y lo que se tiene como producto final en realidad es la ejecución de un marco teórico no deliberado por el autor, pero profundamente condicionante.

Y como toda teoría jurídica impacta directamente en el modo en que se organiza la vida, el sesgo del algoritmo se vuelve también un sesgo sobre la existencia, porque no solo determina quién gana o pierde un juicio, sino quién accede a una oportunidad, quién puede reclamar justicia, quién es escuchado y quién queda fuera del lenguaje del derecho.

Este fenómeno incide de manera directa en la igualdad, porque los sistemas algorítmicos aprenden de datos históricos que reflejan prácticas administrativas y jurisdiccionales previas y cuando esos datos incorporan distribuciones desiguales de cargas probatorias, márgenes de sospecha o criterios de severidad, el sistema los reproduce sin necesidad de identificar personas o categorías protegidas.

Recordemos que la discriminación no aparece como una decisión singular, sino como un efecto agregado que se normaliza a través de la repetición. La literatura especializada ha definido este fenómeno como discriminación algorítmica estructural: una reproducción de patrones desiguales que no requiere intención individual, pero que produce efectos desproporcionados. Noriega Campero, A. en su trabajo “Discriminación algorítmica y costo de equidad”, del Investigaciones Jurídicas, ha documentado cómo estas prácticas tienden a reforzar los sesgos del pasado y a disminuir la capacidad de corrección de las instituciones públicas 1.

La falta de explicabilidad refuerza ese desplazamiento, porque el procedimiento del razonamiento decisorio no sea jurídicamente reconstruido. Cuando no es posible identificar qué variables inclinaron el caso ni por qué se descartaron alternativas relevantes, el control se reduce a la verificación formal de la motivación escrita. La revisión deja intacto el núcleo que organizó la decisión.

En este contexto, el uso de inteligencia artificial como soporte decisorio modifica la distribución de cargas dentro del proceso. La autoridad jurisdiccional debe conservar la capacidad de decidir, pero deja de cargar íntegramente con el conflicto que atraviesa la resolución. Parte de ese conflicto se procesa antes, de manera automática, y ya no vuelve a entrar en el intercambio argumentativo. Generando con esto que el punto de fricción se desplaza fuera del alcance de las partes.

El problema no reside en la incorporación de tecnología como tal, sino en la sustitución progresiva de la toma de postura jurídica por la confirmación de regularidades. Cuando la decisión se apoya en patrones estabilizados, el derecho conserva su forma, pero reduce su capacidad de autocorrección.

No hay nada neutral en el diseño de una IA jurídica. Cada modelo reproduce la lógica jurídica con la que fue entrenado, y eso implica replicar también sus sesgos epistemológicos.

Si el sistema aprende a partir de resoluciones positivistas que reducen el juicio a una fórmula entre norma y hecho, no hará otra cosa que ejecutar esa lógica como dogma, sin margen para deliberación ni revisión crítica. Si absorbe un naturalismo moral, impondrá su idea de verdad objetiva como si fuera incuestionable. Si se entrena desde el objetivismo, eliminará de tajo el rol del juez como intérprete. Y si se opta por un pragmatismo mal digerido, todo se reduce a cálculos utilitarios que simplifican las consecuencias como si fueran ecuaciones.

Por eso, debemos tener cuidado con la Inteligencia Artificial, porque su función no la dirige a interpretar, sino a repetir. Y al repetir sin fricción, consolida el sesgo como regla, -si repite un error y lo da por cierto el operador, lo repetirá todas las veces que sea posible-. Si no se reconoce este condicionamiento desde el diseño, se estará legitimando que las máquinas dicten sentencias disfrazadas de racionalidad, cuando en realidad son simples reflejos automatizados de una dogmática que nadie eligió democráticamente y que, muchas veces, ya no resiste el menor examen.


1 Noriega Campero, A. (2019). Discriminación algorítmica y costo de equidad. Universidad Nacional Autónoma de México, Instituto de Investigaciones Jurídicas. Recuperado de https://archivos.juridicas.unam.mx/www/bjv/libros/15/7065/15.pdf