Uso estatal de la inteligencia artificial: casos, alcance y legitimidad democrática | Paréntesis Legal

Abrahan Levi Márquez Salcedo

 

I. El problema no es la tecnología

La inteligencia artificial dejó de ser una promesa y se convirtió en técnica decisoria cotidiana del Estado, porque determina quién recibe prestaciones, quién queda bajo vigilancia y quién pasa a ser objeto de escrutinio fiscal. Esa realidad obliga a desplazar la discusión desde la novedad tecnológica hacia la calidad del acto de autoridad que la incorpora: la legalidad exige motivos comprensibles y verificables; el debido proceso demanda trazabilidad y oportunidad real de defensa; la proporcionalidad exige una ponderación que no puede reducirse a métricas de eficiencia.

Lo anterior, porque cada uno de los datos recabados mediante su uso no inventa desigualdades; por el contrario, las reproduce y evidencia.

Cuando un algoritmo opera en ámbitos de alta carga normativa —libertad personal, acceso a derechos, imposición de cargas administrativas— su uso sin controles proporcionales se vuelve una forma de gobernar que desplaza la justificación pública por la eficacia técnica —puedo hacer lo que quiera mientras mejore para el Estado—.

La discusión técnica es una cortina de humo —porque no la hay—; si el proceso decisorio no cambió, pulir el algoritmo es maquillaje. A ver, quiero hacerle al lector una pregunta simple: ¿se construyeron garantías exigibles o simplemente se automatizó la impunidad? Si la respuesta honesta es que la administración dejó la verificación para después, la llamada «modernización» es una coartada para imponer velocidad en lugar de razón, automatización en lugar de responsabilidad y escala en lugar de revisión.

La velocidad del sistema no legitima ni motiva. Lo que legitima al poder son razones públicas verificables en el momento de la decisión, no informes técnicos ex post que nadie entiende ni revisa —porque, sean sinceros, ¿tan siquiera los leen? —.

Cuando una decisión automatizada golpea el patrimonio o la libertad, el derecho reclama motivación contemporánea, publicidad de la razón administrativa, acceso efectivo a la revisión judicial y mecanismos de reparación inmediatos. Todo eso debe exigirse antes de que el sistema tire el gatillo, no después, como remedio incestuoso. Obligar al afectado a probar lo que la autoridad oculta en servidores privados no es proceso; es la forma más elegante de negar acceso a la justicia.

Técnicamente, los defensores del sistema hablarán de tasas de acierto, de F1-scores y de trade-offs; jurídicamente eso importa poco si la arquitectura institucional permite ejecutar sanciones masivas antes de que exista una posibilidad real de defensa. Un algoritmo que «acierta» el 80 % y arruina la vida del 20 % sin posibilidad de contienda o suspensión provisional no es eficiente: es externalización de errores sobre quienes menos pueden litigar. Eso genera una distribución regresiva del riesgo y convierte el control democrático en adorno.

Cuando la autoridad renuncia a justificar sus decisiones en tiempo real, no está siendo eficiente; lo que está haciendo es redistribuir el poder hacia quienes operan el sistema y lejos de quienes lo padecen, porque la complejidad técnica deja de ser un accidente del diseño y pasa a ser su resultado más conveniente —vamos, abogados, a muchos de ustedes ¿acaso no les beneficia que pocos entiendan nuestro léxico y necesiten de nuestra lectura para traducir cualquier texto legal? Es igual en estos casos—.

Un Estado que protege sus decisiones detrás de arquitectura opaca reorganiza sus incentivos hacia lo que se mide fácil y se cuestiona difícil, y en ese movimiento desplaza la rendición de cuentas sin declararla formalmente.

El efecto es más preciso que el propósito, porque no todos quedan igualmente expuestos a la decisión algorítmica ni igualmente equipados para impugnarla, y esa asimetría no es un bug del sistema, sino su distribución natural cuando nadie exigió que funcionara de otro modo.

La pregunta que queda ya no es si la IA sirve para algo —esa ya lleva mucho tiempo superada—; es si el Estado va a seguir justificando el ejercicio del poder con razones públicas o va a perfeccionar el arte de presentar decisiones arbitrarias como resultados técnicos inevitables —básicamente, que un día inicie un número exagerado de procedimientos arbitrarios solo porque el algoritmo lo dice, pero en la caja negra solo se introducen datos a modo para que ese resultado salga—.

II. Qué hace el Estado con IA

No todos los sistemas de IA que usa el Estado tienen el mismo perfil de riesgo, y confundirlos es el error más común en este debate. Clasificar expedientes internamente es una cosa; suspender pagos sin audiencia previa es otra, y tratarlos como variantes del mismo fenómeno solo sirve para diluir la discusión.

En el extremo menos grave están los sistemas de automatización interna: gestión documental, detección de duplicidades, clasificación de expedientes. Producen eficiencia, no actos jurídicos. En estos casos, el derecho tiene poco que reclamarles directamente.

Un escalón arriba están los sistemas de soporte a la decisión —los que recomiendan qué casos revisar en materia de fraude fiscal, focalización de apoyos sociales, inspecciones—. Aquí el perfil de riesgo depende de una sola variable: si la revisión humana es real o es protocolo decorativo. Cuando un funcionario aprueba en masa lo que el algoritmo sugirió sin examinarlo, el sistema de soporte se convierte funcionalmente en sistema de decisión, y las garantías que aplican a uno aplican al otro.

El núcleo duro del problema está en la decisión automatizada o semiautomatizada con efectos directos: suspensión de pagos, bloqueo de trámites, imputación de fraude —lo cual, si se revisa, supongamos que estaría todo en orden… bueno, quiero creer que sí—.

Sin embargo, cuando un sistema produce esas consecuencias sin validación humana significativa, la brecha entre la velocidad de la máquina y los tiempos del procedimiento administrativo se convierte en un vector de vulneración —una granada de mano sin seguro en la esfera jurídica de cada uno de los afectados—.

Cada uno de los afectados recibe el golpe antes de que exista cualquier posibilidad de contestarlo, y no podemos pensar que eso es un efecto secundario tolerable —imaginen, lectores, que por un error del sistema todos sus activos se paralizaron; tengas un peso o mil millones, te afecta—. Es la inversión completa de la lógica del debido proceso, que exige audiencia antes del acto, no recurso después del daño.

La vigilancia biométrica no te suspende un pago ni te bloquea un trámite; simplemente te registra —tan solo eso es más importante de lo que imaginas—. Tu cara en el metro, tu ruta, con quién coincidiste, sin decisión visible, sin notificación, sin nada que impugnar, porque técnicamente todavía no te han hecho nada. El problema llega después, cuando ese registro silencioso aparece como insumo en una alerta, una clasificación de riesgo o una investigación, y para entonces la conexión entre la cámara de hace tres años y el acto que hoy te afecta es prácticamente imposible de rastrear. El daño se construyó en silencio y el derecho llegó tarde —ya entendiste por qué era tan importante—.

Lo que tienen en común todos estos sistemas es que ninguno opera solo: hay bases de datos, modelos, reglas de negocio, interfaces, contratistas privados, y al final de la cadena un funcionario que firma algo que no entiende del todo. Ante cualquier acto de autoridad, el derecho exige tres respuestas básicas: quién decidió, con qué base y cómo se impugna.

Cuando hay un algoritmo en el medio —y detrás del algoritmo un contratista privado con contrato reservado— ninguna de las tres tiene respuesta satisfactoria. No es que el acto esté mal motivado; es que no está motivado, y la diferencia es sencilla: una tiene remedio y la otra produce nulidad.

III. Los casos: cuando la eficiencia se convierte en daño sistémico

Estados Unidos: MiDAS y la máquina de cobrar[1]

El caso del sistema MiDAS en Michigan es probablemente el más documentado de los fallos de IA en servicios públicos, y es útil precisamente porque su lógica es transparente. El Estado de Michigan implementó un sistema de autoadjudicación para detección de fraude en el seguro de desempleo. El sistema detectaba anomalías, imputaba fraude y activaba cobros —incluyendo retención de devoluciones fiscales— de forma automatizada.

La revisión humana era posterior, lenta y, en la práctica, inaccesible para la mayoría de los afectados. El resultado: miles de personas acusadas falsamente de fraude, con afectaciones patrimoniales concretas, sin notificación adecuada ni posibilidad real de defensa en tiempo útil.

El Estado terminó pagando veinte millones de dólares para resolver una demanda colectiva por violaciones al debido proceso. Pero el dato relevante para el análisis político terminó siendo la arquitectura que hizo posible el daño. MiDAS no falló por un error de programación aislado. Falló porque fue diseñado para maximizar la detección sin mecanismos de contención proporcionales al impacto de sus errores. La eficiencia del sistema —su capacidad para procesar volúmenes masivos de casos— fue exactamente lo que lo hizo peligroso, ya que la velocidad a la que producía consecuencias superaba con mucho la capacidad que tenía la propia institución y sus trabajadores para corregir los errores.

En este caso podemos decir que la lección no es que el Estado no deba usar IA en servicios de beneficios; es que automatizar sanciones y cobros sin revisión humana sustantiva, estándares probatorios claros y canales rápidos de impugnación es constitucional y operativamente insostenible —independientemente de la tasa de aciertos del modelo—. Un sistema que acierta en el ochenta por ciento de los casos, pero afecta patrimonialmente a miles de personas en el veinte restante, sin posibilidad real de corrección oportuna, no está siendo eficiente: está externalizando el costo del error sobre los más vulnerables.

Países Bajos: cuando el antifraude se vuelve discriminación[2]

El caso neerlandés tiene algo que MiDAS no tiene con la misma nitidez: un sesgo étnico documentado, institucionalizado y operado con dinero público. Las autoridades fiscales no usaron un criterio neutro que produjo resultados dispares por accidente; usaron perfiles de riesgo que, en la práctica, marcaban con mayor frecuencia a familias con doble nacionalidad. El eufemismo «doble nacionalidad» en ese contexto tiene traducción directa: familias de origen migrante. El sistema no discriminaba por error; discriminaba por diseño, porque el diseño reflejaba los sesgos del criterio de riesgo que alguien decidió que era válido usar —algo que lamentablemente se sigue viviendo hoy en día: racismo—.

Las consecuencias fueron suspensión de subsidios, imposición de deudas en muchos casos impagables y exclusión de apoyos a los que esas familias tenían derecho. Me refiero con esto a familias que dejaron de pagar renta, que perdieron acceso a cuidado infantil, que vivieron años bajo una deuda que el Estado les fabricó con un algoritmo. La Comisión Europea documentó el caso. El gobierno renunció asumiendo responsabilidad política. Ese desenlace es políticamente excepcional y conviene entenderlo con precisión: no renunciaron porque el sistema fallara, sino porque los mecanismos de control funcionaron lo suficiente para hacer el daño visible e indefendible —cuestión que es casi imposible ver en gobiernos latinoamericanos hoy en día—.

Ahí está la pregunta que el caso deja abierta y que ningún entusiasta de la IA gubernamental ha respondido con seriedad: si en un país con autoridades de datos robustas, instituciones de control activas y cultura política donde la rendición de cuentas tiene consecuencias reales, el daño ocurrió a escala masiva antes de que alguien lo detuviera, ¿qué ocurre donde esos mecanismos son más lentos, más capturados o directamente inexistentes? El modelo de riesgo que discrimina por origen nacional no se vuelve menos discriminatorio por operar en un entorno institucional más opaco.

Se vuelve más peligroso, porque la probabilidad de que alguien lo detecte y lo corrija disminuye proporcionalmente a la debilidad del sistema de control. El sesgo no desaparece con la opacidad; se protege con ella.

Francia: la vigilancia experimental y el riesgo de normalización[3]

El Estado francés autorizó por ley el uso experimental de analítica de video con detección de comportamientos sospechosos en espacios públicos durante los Juegos Olímpicos de 2024, con fecha de vencimiento declarada en marzo de 2025. La CNIL[4] intervino para explicar los límites de la autorización, pedir debate democrático y advertir sobre algo que cualquier manual de historia política podría confirmar: las excepciones temporales en materia de vigilancia no suelen ser temporales.

El mecanismo es siempre el mismo y funciona con independencia del régimen político. Se autoriza una habilitación excepcional acotada en tiempo y alcance; la amenaza que la justificó no desaparece; los resultados —reales o presentados como tales— se invocan para justificar la continuación; y en algún punto la lógica de la excepción se convierte en la lógica ordinaria sin que nadie haya tomado formalmente la decisión de hacer ese cambio.

Lo que lo hace estructuralmente difícil de revertir no es la mala fe de quienes operan el sistema, sino la asimetría de costos, porque una vez que la infraestructura está instalada y el personal capacitado para usarla, desmantelarla tiene un costo político visible; mantenerla tiene uno invisible —y esa asimetría siempre resuelve en favor de quedarse—.

Lo relevante del caso francés no es que algo haya salido mal; es que la discusión sobre si debía ocurrir llegó cuando las cámaras ya estaban instaladas. El debate fue técnico, tardío y en un idioma que la mayoría no puede evaluar, y la CNIL hizo lo que podía hacer: advertir, acotar, pedir más democracia en el proceso. Pero intervenir sobre decisiones ya tomadas e infraestructura ya operando tiene un margen real muy estrecho. Eso no es una falla de la autoridad de datos; es lo que pasa cuando se regula después de desplegar.

China: regulación por capas y la pregunta sobre el enforcement[5]

El caso chino es analíticamente más complejo porque combina dos fenómenos que en el debate occidental tienden a confundirse: una arquitectura regulatoria sofisticada y una capacidad estatal de vigilancia también sofisticada.

China tiene Ley de Protección de Información Personal, Ley de Seguridad de Datos, provisiones específicas para algoritmos de recomendación y medidas para reconocimiento facial que entraron en vigor en junio de 2025 e incluyen obligaciones como la de ofrecer alternativas a la verificación facial.

Ese marco normativo no es cosmético: hay obligaciones técnicas concretas y mecanismos de supervisión reales. El problema no es que el marco no exista; es la pregunta que ese marco no responde.

La pregunta analítica relevante no es si China tiene regulación —la tiene, lo acabo de decir—, sino qué relación existe entre esa regulación y el ejercicio real del poder estatal de vigilancia.

Un marco que exige alternativas al reconocimiento facial en servicios comerciales mientras el Estado despliega reconocimiento facial en infraestructura de seguridad pública está operando en lógicas distintas para distintos actores.

La regulación por capas que China muestra —leyes de datos, reglas de algoritmos y reglas por tecnología específica— es un modelo de arquitectura normativa que otros países están adoptando. Lo que no puede trasplantarse directamente es el supuesto de que esa regulación opera en un entorno donde el Estado mismo es el sujeto más vigilado.

México: infraestructura desplegada, marco  habilitante ausente[6]

México presenta un diagnóstico que merecería más atención académica de la que ha recibido: hay sistemas de IA en operación sin que exista un marco jurídico específico que los habilite, limite y sujete a control.

El C5 de la Ciudad de México opera cámaras con funciones de reconocimiento facial en infraestructura de seguridad, documentado en sus propios planes anuales. El SAT usa analítica de redes e inteligencia artificial para detectar posibles esquemas de evasión fiscal. En ambos casos, el despliegue precede a la regulación específica.

Existe un marco transversal: la Ley General de Protección de Datos Personales en Posesión de Sujetos Obligados provee principios aplicables a cualquier sistema que procese datos personales, y el INAI tiene guías sobre tratamiento de datos biométricos.

La Suprema Corte, en la resolución del PANAUT, estableció un estándar de proporcionalidad y necesidad para bases masivas de datos biométricos que tiene relevancia directa para sistemas de reconocimiento facial.

Lo que no existe es un régimen específico que exija evaluaciones de impacto en derechos antes del despliegue, inventarios públicos de sistemas en uso ni estándares de supervisión humana con consecuencias reales cuando no se cumplen.

La diferencia entre operar sin marco habilitante y operar con uno no es solo de formalidad jurídica: es la diferencia entre un sistema que puede auditarse, cuestionarse e impugnarse y uno que no puede hacer ninguna de las tres cosas porque no hay norma contra la cual contrastar su funcionamiento.

Mientras no haya ley general de IA, ese vacío puede llenarse parcialmente con lineamientos vinculantes basados en la legislación de datos y procedimiento administrativo existente. Pero eso requiere voluntad institucional que hasta ahora no se ha traducido en instrumentos concretos.

IV. Patrones estructurales: los alcances que los casos tienen en común

Leídos en conjunto, los casos documentados revelan patrones que trascienden las particularidades nacionales. El primero es la asimetría entre velocidad del sistema y velocidad del control. Los sistemas de IA producen efectos en milisegundos; los mecanismos de impugnación operan en semanas, meses o años. Esa asimetría tiene consecuencias concretas, porque quienes tienen recursos para litigar pueden eventualmente revertir el daño; quienes no los tienen, no. El daño se consolida antes de que exista posibilidad de corrección.

El segundo patrón es la confusión entre detección y prueba. Un modelo de riesgo identifica probabilidades, no hechos. Cuando el sistema produce una alerta, esa alerta debería ser el inicio de una investigación, no su conclusión. Los casos más problemáticos —MiDAS, Países Bajos— son aquellos en que el output del modelo se trató como base suficiente para producir consecuencias jurídicas sin el paso intermedio de valoración probatoria. El algoritmo no sabe que acusa: ejecuta una función. El problema es el diseño institucional que le asigna funciones para las que carece de capacidad.

El tercer patrón es la opacidad como protección del sistema, no del dato. El secreto comercial, la complejidad técnica del modelo y la ausencia de registros auditables protegen al sistema frente a la posibilidad de ser cuestionado y auditado. Cuando el afectado no puede acceder a las variables que determinaron la decisión, al umbral que se cruzó ni a los datos con que se entrenó el modelo, el derecho a la defensa existe en el papel y en ningún otro lugar. La revisión judicial se convierte en un trámite que da la razón a quien tiene la caja negra.

El cuarto patrón es el desvío de finalidad. Los datos recogidos para un propósito —registro civil, historial fiscal, cámaras de tránsito— terminan usándose para otro de mayor impacto sobre derechos. No siempre hay una decisión deliberada detrás, porque cuando aumenta la capacidad de cruzar bases de datos, lo que antes era técnicamente imposible o jurídicamente inexistente se vuelve rutinario sin que nadie haya aprobado formalmente ese cambio. El principio de finalidad no se abandona por decreto; se abandona por inercia, que es más difícil de impugnar y más fácil de ignorar.

V. Recomendaciones políticas accionables

Para gobiernos (incluyendo México como referencia latinoamericana) se podrían generar medidas concretas como las siguientes:

El primer componente es un régimen diferenciado para sistemas de IA de alto impacto en el sector público. Tres elementos no negociables: registro público de los sistemas en operación, evaluación de impacto sobre derechos antes del despliegue y canal real de impugnación para el afectado. Esto no requiere esperar una ley general de IA; puede implementarse vía lineamientos vinculantes apoyados en la legislación de datos y procedimiento administrativo existente. La Unión Europea lo hizo por esa vía antes de que el AI Act entrara en vigor.[7]

El segundo es un sistema nacional de auditoría algorítmica con dientes, técnica y jurídica. Auditorías periódicas, pruebas de precisión y sesgo desagregadas por grupos, y revisión de proporcionalidad del uso. En vigilancia biométrica urbana, la auditoría tiene que incluir tasas de falsos positivos y protocolos de actuación cuando el sistema produce una coincidencia, porque sin eso el protocolo lo improvisa quien opera la cámara. El NIST AI RMF ofrece un marco técnico utilizable como punto de partida.[8]

El tercero es tratar las compras públicas de tecnología como lo que son: decisiones de gobernanza, no adquisiciones de software. Sin cláusulas de explicabilidad, documentación auditable, acceso a métricas de desempeño y derecho de terminación por riesgo, el contrato le cede al proveedor privado el control sobre decisiones públicas sin consecuencia jurídica para nadie. La OCDE lo sintetizó con precisión: no procurement without governance.[9]

El cuarto es la distinción que más resistencia genera, porque tiene consecuencias presupuestales directas: separar con nitidez la IA que sirve para análisis agregado de política pública de la IA que produce efectos sobre personas identificadas. Cuando el sistema genera un acto administrativo individual, el estándar de motivación, notificación y revisión tiene que ser proporcional a ese impacto.[10]

 

 

Referencias

  1. Michigan Office of the Auditor General. (2016). Michigan Integrated Data Automated System (MiDAS): Performance audit (Report No. 641-0593-15). https://audgen.michigan.gov/wp-content/uploads/2016/07/r641059315.pdf
  2. Reuters. (2021, January 15). Dutch government quits over ‘colossal stain’ of tax subsidy scandal. https://www.reuters.com/world/dutch-government-resigns-over-childcare-subsidies-scandal-2021-01-15/
  3. Commission nationale de l’informatique et des libertés (CNIL). (2024, June 25). 2024 Olympics: CNIL’s Q&A on your privacy and freedoms. https://www.cnil.fr/en/2024-olympics-cnils-qa-your-privacy-and-freedoms
  4. Baker McKenzie. (2025, April 22). China releases new rules to further regulate application of face recognition technology (Client alert). https://connectontech.bakermckenzie.com/
  5. Suprema Corte de Justicia de la Nación. (2022, April 25). Acción de inconstitucionalidad 82/2021 (PANAUT) — proyecto y resolución. https://www2.scjn.gob.mx/juridica/engroses/cerrados/Publico/Proyecto/AI82_2021y86_2021acumuladaPL.pdf
  6. European Commission. (2021). Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). COM(2021) 206 final. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206
  7. National Institute of Standards and Technology (NIST). (2023). Artificial Intelligence Risk Management Framework (AI RMF) 1.0. U.S. Department of Commerce. https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-1.pdf
  8. World Economic Forum. (2020). AI Government Procurement Guidelines. https://www3.weforum.org/docs/WEF_AI_Procurement_in_a_Box_AI_Government_Procurement_Guidelines_2020.pdf
  9. Organisation for Economic Co-operation and Development (OECD). (2019). Recommendation of the Council on Artificial Intelligence. https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
  10. Office of the United Nations High Commissioner for Human Rights (OHCHR). (2025). Artificial intelligence procurement and deployment: Executive summary and human-rights guidance. https://www.ohchr.org/sites/default/files/2025-06/a-hrc-59-53-artificial-intelligence-procurement-executive-summary-working-group-en2.pdf
  11. Council of Europe. (2019). Unboxing artificial intelligence: 10 steps to protect human rights. https://rm.coe.int/unboxing-artificial-intelligence-10-steps-to-protect-human-rights/1680946e64

[1]Estados Unidos — MiDAS (Michigan). Michigan Office of the Auditor General. (2016). Michigan Integrated Data Automated System (MiDAS): Performance audit (Report No. 641-0593-15). Michigan Office of the Auditor General. https://audgen.michigan.gov/wp-content/uploads/2016/07/r641059315.pdf

[2]Países Bajos — Escándalo subsidios de cuidado infantil (Toeslagen). Reuters. (2021, January 15). Dutch government quits over ‘colossal stain’ of tax subsidy scandal. Reuters. https://www.reuters.com/world/dutch-government-resigns-over-childcare-subsidies-scandal-2021-01-15/

[3]Francia — CNIL y vigilancia en eventos (Juegos Olímpicos 2024). Commission nationale de l’informatique et des libertés (CNIL). (2024, June 25). 2024 Olympics: CNIL’s Q&A on your privacy and freedoms. https://www.cnil.fr/en/2024-olympics-cnils-qa-your-privacy-and-freedoms

[4]Commission nationale de l’informatique et des libertés. (Traducción: Comisión Nacional de Informática y Libertades — autoridad francesa de protección de datos.)

[5]China — regulación y medidas sobre reconocimiento facial (2025). Baker McKenzie. (2025, April 22). China releases new rules to further regulate application of face recognition technology (Client alert). https://www.bakermckenzie.com/en/insight/publications

[6]México — PANAUT / Suprema Corte. Suprema Corte de Justicia de la Nación. (2022, April 25). Acción de inconstitucionalidad 82/2021 (PANAUT) — proyecto y resolución. https://www2.scjn.gob.mx/juridica/engroses/cerrados/Publico/Proyecto/AI82_2021y86_2021acumuladaPL.pdf

[7]Régimen de IA de alto impacto (registro, evaluación de impacto, impugnación). Comisión Europea. (2021). Proposal for a Regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). COM(2021) 206 final. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206

[8]Sistema nacional de auditoría algorítmica (precisión, sesgo, proporcionalidad). National Institute of Standards and Technology. (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0). U.S. Department of Commerce. https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-1.pdf

[9]Compras públicas con enfoque de derechos. Organisation for Economic Co-operation and Development. (2019). Recommendation of the Council on Artificial Intelligence. OECD. https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449

[10]Distinción entre IA para política pública vs decisiones individuales (debido proceso reforzado). Council of Europe. (2019). Unboxing artificial intelligence: 10 steps to protect human rights. https://rm.coe.int/unboxing-artificial-intelligence-10-steps-to-protect-human-rights/1680946e64