El SAT contra el estándar racional de la prueba: 69-B, discrepancia fiscal y perfilamiento algorítmico bajo escrutinio epistémico | Paréntesis Legal

Pedro David Nieto Olvera

 

A un contribuyente le aparece una restricción temporal en su Certificado de Sello Digital. No puede emitir CFDI. Su operación se detiene. Cuando acude al portal del SAT, la motivación del acto es genérica: detección de inconsistencias, discrepancias en su comportamiento fiscal, riesgo elevado. Cuando pide la aclaración prevista en el artículo 17-H Bis del Código Fiscal de la Federación, la autoridad le responde con catálogos de causales. Lo que no aparece (ni aparecerá) es el modelo algorítmico que lo etiquetó, las variables que pesaron, el umbral aplicado, ni el universo de contribuyentes con el que fue comparado.

Esa escena condensa el problema que aquí me propongo discutir: el SAT está fiscalizando con inteligencia artificial sin que la Administración Tributaria mexicana cuente con un piso epistémico mínimo que asegure que sus presunciones cumplen con el estándar racional de la prueba. Tres figuras concentran hoy ese desplazamiento de la prueba a la inferencia algorítmica: la presunción de inexistencia de operaciones del artículo 69-B del Código Fiscal de la Federación (CFF); la presunción de discrepancia fiscal del artículo 91 de la Ley del Impuesto sobre la Renta (LISR); y los modelos de perfilamiento de riesgo derivados de la minería masiva de Comprobantes Fiscales Digitales por Internet (CFDI), que alimentan tanto las cartas invitación como las restricciones del Certificado de Sello Digital del 17-H Bis CFF y los procedimientos de cancelación del 17-H. Las tres comparten una arquitectura común: desplazar la carga probatoria al contribuyente sobre la base de un output algorítmico que la autoridad nunca somete a contradicción real.

Estas tres figuras, junto con la reforma al artículo 30-B del CFF que se incluyó en el Paquete Económico 2026, y que extiende en tiempo real la fiscalización automatizada hacia las plataformas digitales, no superan el test del razonamiento probatorio racionalista (Haack, 2014; Ferrer Beltrán, 2022). En el plano constitucional, vulneran el debido proceso, la presunción de inocencia trasladada al ámbito administrativo sancionador y el derecho a la protección de datos personales. En el plano regulatorio, operan sobre un vacío normativo que en otros países (el Reglamento (UE) 2024/1689, conocido como AI Act, y el artículo 22 del Reglamento General de Protección de Datos europeo) ya empezó a llenarse con obligaciones específicas.

En México, los avances institucionales recientes, como la creación de la Agencia de Transformación Digital y Telecomunicaciones (Diario Oficial de la Federación 2025), el Plan Nacional de Autonomía Digital (Gobierno de México, 2026a), el Plan Nacional de Inteligencia Artificial (Gobierno de México, 2026b) y los declarativos Principios Chapultepec (Estrada, 2026) reconocen el problema, pero ninguno reemplaza a una ley.

¿Qué exige el estándar racional de la prueba?

La concepción racionalista de la prueba parte de una premisa: la prueba no se reduce a la fijación formal de los hechos ni al convencimiento subjetivo del juzgador, sino que persigue la averiguación de la verdad, en la mayor medida posible, a partir de criterios de racionalidad epistemológica (González Lagier, 2022; Ferrer Beltrán, 2022). Decir que un enunciado fáctico está probado no es decir que sea verdadero por decreto: es decir, en palabras de González Lagier (2022, p. 21), que “la información que tenemos justifica pensar que es verdadero”. Probar es, entonces, construir una justificación racional sobre los hechos que sustenta la consecuencia jurídica.

Sobre ese tema, Susan Haack (2014) ha desarrollado en Evidence Matters la imagen más clara del estándar epistémico que debe acompañar a toda decisión probatoria, sea judicial o administrativa. La calidad del warrant (del fundamento) de una conclusión depende, según Haack, de tres factores entrelazados: 1) la seguridad independiente de las razones que la sustentan (que cada elemento de juicio tenga, a su vez, soporte propio); 2) el grado de soporte que esas razones brindan a la conclusión; y 3) la comprehensividad, esto es, que la decisión incorpore todo lo razonablemente relevante y no descarte por construcción información exculpatoria (Haack, 2014, pp. 21-24). A esta triada se añade una advertencia para el debate actual sobre algoritmos: el grado de prueba no se confunde con la probabilidad estadística. Una correlación, por alta que sea, no es por sí misma un elemento de prueba en sentido racional, porque la naked statistical evidence no garantiza ni comprehensividad ni soporte cualitativo (Haack, 2014, pp. 47-77).

Este punto importa porque las herramientas algorítmicas del SAT operan, casi sin excepción, sobre lógicas estadísticas: clasificación de contribuyentes por riesgo, detección de redes de elusión por analítica de grafos, identificación de inconsistencias en CFDI por machine learning (IDC Online, 2024; Expansión, 2024). Lo que el modelo entrega no es prueba: es señal estadística. Trasladarla mecánicamente al ámbito de la decisión administrativa sin reconstrucción probatoria es, en términos de Haack, una confusión categorial.

Conviene anclar el argumento en un punto que el Manual de la Suprema Corte ha hecho explícito y que en México suele perderse en la rutina del litigio fiscal: el cognoscitivismo moderado del razonamiento probatorio no exige certezas absolutas, pero tampoco tolera atajos. Reconoce que la verdad empírica es siempre graduable y revisable, y por ello pide que la decisión sobre los hechos sea derrotable, sometida a contradicción y abierta a la información que pueda aparecer (González Lagier, 2022, pp. 16-22). El acto administrativo que se sostiene en un output algorítmico no abierto al contribuyente vulnera precisamente esa condición de derrotabilidad: lo que el modelo afirma queda fijado de hecho como premisa, no como conclusión sometida a prueba.

Las tres herramientas algorítmicas del SAT y el problema del sesgo

El Plan Maestro 2024 del SAT formalizó lo que la práctica ya operaba: mediante machine learning y analítica de grafos, la autoridad clasifica contribuyentes por riesgo, identifica redes de elusión y detecta inconsistencias en CFDI vinculadas con contrabando y empresas fachada (IDC Online, 2024). Un análisis ha cartografiado las áreas de aplicación de esta inteligencia artificial, los sesgos potenciales por tipo de dato (CFDI, declaraciones, información bancaria, datos de terceros) y su impacto diferenciado sobre contribuyentes según sector, tamaño y grado de formalidad (Nieto Olvera, 2025).

Tres figuras concentran el desplazamiento más intenso de la carga probatoria. El artículo 69-B del CFF presume la inexistencia de las operaciones amparadas en CFDI cuando el emisor carece de capacidad material. La Suprema Corte de Justicia de la Nación acotó el alcance en la sentencia del 13 de marzo de 2024: el contribuyente solo debe acreditar capacidad operativa, no la existencia de cada operación en particular (SCJN, 2025; Soltum, 2024). El criterio es bastante relevante, pero no resuelve el problema de fondo: la detección de EFOS sigue alimentándose de cruces masivos de CFDI cuya arquitectura el contribuyente nunca conoce. El artículo 91 de la LISR presume ingresos no declarados cuando las erogaciones de una persona física superan sus ingresos reportados. Lo que antes era cotejo manual hoy se ejecuta de manera automatizada mediante minería integrada de bases del sistema financiero, el IMSS, el INFONAVIT y el RFC; el SAT reportó en 2024 un incremento del 98.5 % en efectividad de actos de fiscalización, atribuido a esa automatización (Contralínea, 2024).

El perfilamiento de riesgo y la minería masiva de CFDI alimentan cartas invitación, restricciones del Certificado de Sello Digital por la vía del 17-H Bis y, en última instancia, cancelaciones del 17-H. Para 2026, el SAT anunció ampliar este alcance hacia fintech y plataformas digitales, con detección automatizada de depósitos recurrentes en efectivo, préstamos entre familiares sin respaldo legal y diferencias entre gastos con tarjeta e ingresos declarados (R3D, 2026). Las tres herramientas comparten una arquitectura que es, a la vez, su déficit epistémico central: desplazar la carga probatoria al contribuyente sobre la base de un output algorítmico que la autoridad no somete a contradicción real.

Cinco fallos epistémicos

Ahora bien, si se aplican los criterios de Haack (2014) a estas tres figuras, el resultado es difícil de eludir. El primer fallo es de opacidad. Ni el contribuyente ni sus asesores acceden al modelo, a las variables, a los pesos asignados ni al umbral. La motivación del acto se limita a invocar “inconsistencias detectadas” o “incumplimientos identificados”, fórmulas que en cualquier otra rama del derecho serían descartadas como motivación insuficiente. El propio SAT, consultado vía transparencia, “refiere no identificar documentación” sobre uso ético y responsable de la IA, a pesar de operar modelos de aprendizaje estadístico para detectar “factureras” y empresas importadoras irregulares (Estrada, 2026). La doctrina europea ya identificó este problema bajo la categoría de black box (Pasquale, 2015), y el artículo 22 del RGPD respondió a él implementando el derecho a no ser objeto de decisiones basadas exclusivamente en tratamientos automatizados que produzcan efectos jurídicos significativos, con derecho expreso a obtener intervención humana, expresar el punto de vista propio e impugnar la decisión (Reglamento [UE] 2016/679, art. 22). En el sistema jurídico mexicano nada de esto existe para el contribuyente fiscal.

El segundo fallo es de no comprehensividad. Los modelos del SAT operan sobre subconjuntos de información estructurada (CFDI, cuentas bancarias, retenciones, IMSS e INFONAVIT), pero descartan por construcción la información cualitativa exculpatoria: la justificación económica de un esquema, la racionalidad operativa de un grupo empresarial, las explicaciones razonables sobre flujos atípicos, los contratos que dan sustento jurídico a las operaciones. Haack (2014, pp. 23-24) recuerda, con apoyo en Bentham (1827), que la comprehensividad (incorporar toda la evidencia razonablemente disponible) es un desideratum epistemológico irrenunciable. Los modelos del SAT, al depurar por correlaciones, hacen lo contrario: estrechan el universo de razones admisibles, no lo amplían.

El tercer fallo es de no independencia. Los modelos de machine learning aprenden de las decisiones previas del modelo. Si en un periodo determinado las EFOS detectadas pertenecieron a un sector o a un perfil socioeconómico específico, el modelo siguiente atribuirá mayor peso a esas variables y reproducirá el sesgo. La literatura crítica sobre rendición de cuentas algorítmica describe este problema como feedback loop (O’Neil, 2016, pp. 84-104; Nieto Olvera, 2025, pp. 23-24): el algoritmo confirma sus propios prejuicios porque la base de entrenamiento es ella misma resultado de prejuicios anteriores. Que la presunción de inexistencia de operaciones se haya concentrado en sectores y perfiles específicos (construcción, servicios profesionales, contribuyentes recientes, energético) sugiere que este bucle ya está operando.

El cuarto fallo es de no revisabilidad. El contribuyente no puede contraargumentar técnicamente lo que no ve. El recurso administrativo y el juicio contencioso administrativo se estructuran como si la prueba que sustenta la presunción fuera material y discutible, cuando en los hechos la prueba reside en el modelo. Esta asimetría informacional es precisamente la que el AI Act europeo ha intentado corregir al exigir, para los sistemas de IA de alto riesgo, evaluación previa de impacto en derechos fundamentales, documentación técnica auditable, registros de funcionamiento y supervisión humana significativa (Reglamento [UE] 2024/1689, arts. 9, 13, 14 y 27).

El quinto fallo es categorial: la confusión entre señal estadística y prueba racional. Haack (2014, pp. 19-20) lo ilustra con el viejo caso Smith v. Rapid Transit: que la mayoría de los camiones de la ruta sea de la empresa A no prueba que el autobús que atropelló a la señora Smith fuera de la empresa A. La estructura probatoria del 69-B CFF y de los modelos de perfilamiento es exactamente la misma. Que un emisor presente perfiles típicos de empresa fachada no prueba que sus operaciones sean inexistentes; solo prueba que sus indicadores se parecen a los de otros emisores que en algún momento fueron declarados EFOS por la propia autoridad.

A los cinco fallos se suma un problema de escala: los falsos positivos. Cuando un modelo etiqueta a millones de contribuyentes y aún una tasa baja de error genera daño masivo en términos absolutos, la decisión de aceptar ese error sin recursos efectivos es, materialmente, una decisión política sobre el costo distribucional de la fiscalización automatizada que ningún órgano deliberativo ha tomado en México.

Un caso reciente ilustra hasta qué punto la frontera entre fiscalización tributaria, inteligencia financiera y persecución penal se difumina cuando opera bajo lógicas algorítmicas. El 12 de noviembre 2025, la Secretaría de Seguridad Pública y la Unidad de Inteligencia Financiera anunciaron denuncias contra trece casinos por presunto lavado de dinero y, en el mismo acto, el bloqueo de páginas electrónicas de los casinos virtuales y la suspensión temporal de actividades. En el mismo comunicado se anunció el desarrollo de “modelos predictivos basados en inteligencia artificial y nuevas tipologías sectoriales para identificar conductas inusuales antes de que generen un daño al sistema financiero” (Quadratín México, 2025; Excelsior, 2025). El paso del “después” (reportar lo que ya ocurrió) al “antes” (predecir y actuar contra una conducta que aún no se materializa) no es nuevo. Bajo el estándar racional de la prueba, anticipar la sanción a la conducta presunta exige un warrant especialmente robusto que ningún órgano técnico ha verificado en estos modelos.

Vale la pena cerrar este apartado con una crítica que Haack (2014, pp. 47-77) dirige al probabilismo legal (y que los defensores de la fiscalización algorítmica suelen ignorar): identificar grados de prueba con probabilidades matemáticas distorsiona la naturaleza misma del razonamiento probatorio. Una creencia puede estar bien justificada sin ser asignable a un valor numérico, y un valor numérico alto no equivale a un fundamento racional sólido. La ilusión de objetividad que ofrece la salida cuantitativa de un modelo (un score de riesgo, un porcentaje de probabilidad de simulación) es, en términos epistémicos, un parecido. La salida del modelo no sustituye al razonamiento; lo presupone, y precisamente por eso debe poder ser discutida.

Conclusión

¿Puede una IA del SAT cumplir el estándar racional de la prueba? En las condiciones actuales, no. No porque la IA sea incompatible con el razonamiento probatorio, sino porque las herramientas que hoy operan en la fiscalización mexicana se sostienen sobre presunciones que invierten la carga, modelos que el contribuyente no ve y un vacío regulatorio que el legislador no ha querido ocupar. González Lagier (2022, p. 21) lo formuló con precisión: un enunciado está probado cuando “la información que tenemos justifica pensar que es verdadero”. Cuando esa información es, a su vez, opaca, atomística y no revisable, lo que tenemos no es prueba: es decisión disfrazada de prueba.

Cinco mínimos parecen irrenunciables para restituir el estándar. Primero, auditabilidad técnica: una autoridad independiente debe examinar los modelos, sus variables y su tasa de error documentada. Segundo, derecho a explicación específica e individualizada: cuando la autoridad funde un acto en un output algorítmico, debe entregar al contribuyente la lógica aplicable a su caso, no una motivación genérica. Tercero, prohibición de decisiones exclusivamente automatizadas con efectos privativos o significativos sobre derechos del contribuyente, en la línea del artículo 22 del RGPD (Reglamento [UE] 2016/679). Cuarto, motivación reforzada: el deber constitucional del artículo 16 debe leerse, cuando interviene IA, como exigencia agravada de razonabilidad, comprehensividad y contraste con información exculpatoria. Quinto, reasignación correcta de la carga: si la autoridad pretende sostener una presunción sobre la salida de un modelo, debe asumir la carga de demostrar la fiabilidad del modelo, no trasladarla al contribuyente bajo la fórmula de “desvirtuar”.

Este piso es el mínimo que ya está plasmado en el derecho comparado. Lo que el Reglamento (UE) 2024/1689 establece como obligación inderogable para sistemas de alto riesgo en administración pública, es en México un espacio vacío, sin norma. Su ausencia convierte al SAT en lo que Pasquale (2015) llamó una black box institution: una autoridad que decide más de lo que explica.

 

https://orcid.org/0009-0006-6777-3835

Perfil en X: @david_nieto01

dr.nietodavid@protonmail.com, pnietoo0500@egresado.ipn.mx

 

Referencias

 

Bentham, J. (1827). Rationale of Judicial Evidence. Hunt and Clarke. https://books.google.com.mx/books/about/Rationale_of_Judicial_Evidence.html?id=6G9VF_qJFyMC&redir_esc=y

Cámara de Diputados del H. Congreso de la Unión. (1981). Código Fiscal de la Federación [Última Reforma DOF 09-04-2026]. Diario Oficial de la Federación.

Cámara de Diputados del H. Congreso de la Unión. (2013). Ley del Impuesto sobre la Renta [Última Reforma DOF 01-04-2024]. Diario Oficial de la Federación.

Colegio de Contadores Públicos de Guadalajara. (31 de enero 2024). Defensa jurídica ante la restricción temporal de certificados de sellos digitales. https://ccpg.org.mx/2024/01/31/defensa-juridica-ante-la-restriccion-temporal-de-certificados-de-sellos-digitales/

Contralínea. (2024). SAT incorpora inteligencia artificial en su Plan Maestro 2024. https://contralinea.com.mx/interno/semana/sat-incorpora-inteligencia-artificial-en-su-plan-maestro-2024/

Diario Oficial de la Federación. (24 de enero 2025). Decreto por el que se expide el Reglamento Interior de la Agencia de Transformación Digital y Telecomunicaciones. Diario Oficial de la Federación.

https://www.dof.gob.mx/nota_detalle.php?codigo=5747756&fecha=24/01/2025#gsc.tab=0

Estrada, A. M. (3 de marzo 2026). El gobierno mexicano ya usa la IA, pero no hay normas ni estrategia. WIRED en Español. https://es.wired.com/articulos/el-gobierno-mexicano-ya-usa-la-ia-pero-no-hay-normas-ni-estrategia

Excelsior (12 de noviembre 2025). Mañanera de Claudia Sheinbaum, 12 de noviembre de 2025. [Video]. YouTube: https://www.youtube.com/watch?v=k8gXNB0CsbI&t=4422s min 1:08:46.

Expansión. (22 de enero 2024). El SAT usará la inteligencia artificial para revisar CFDI y otros procesos. https://expansion.mx/economia/2024/01/22/sat-usara-inteligencia-artificial-procesos-fiscalizacion

Ferrer Beltrán, J. (Coord.). (2022). Manual de razonamiento probatorio. Suprema Corte de Justicia de la Nación. https://www.scjn.gob.mx/derechos-humanos/sites/default/files/Publicaciones/archivos/2024-02/Manual%20de%20razonamiento%20probatorio_0.pdf

Gobierno de México. (2026a). Plan Nacional de Autonomía Digital. Agencia de Transformación Digital y Telecomunicaciones.

Gobierno de México. (2026b). Plan Nacional de Inteligencia Artificial. Agencia de Transformación Digital y Telecomunicaciones.

González, F. (23 de octubre 2025). El SAT quiere saber cuánto facturan los servicios digitales en tiempo real. Expertos temen por tus datos. WIRED en Español. https://es.wired.com/articulos/el-sat-quiere-saber-cuanto-facturan-los-servicios-digitales-en-tiempo-real-expertos-temen-por-tus-datos

González Lagier, D. (2022). Prueba, hechos y verdad. En J. Ferrer Beltrán (Coord.), Manual de razonamiento probatorio (pp. 1-46). Suprema Corte de Justicia de la Nación.

Haack, S. (2014). Evidence matters: Science, proof, and truth in the law. Cambridge University Press.

IDC Online. (23 de enero 2024). SAT anuncia fiscalización con inteligencia artificial. https://idconline.mx/fiscal-contable/2024/01/23/sat-anuncia-fiscalizacion-con-inteligencia-artificial

Nieto Olvera, P. D. (2025). Artificial intelligence and algorithms in tax auditing by the Tax Administration Service in Mexico: Analysis of potential biases. International Journal for Public Policy, Law and Development, 2(3), 18-32. https://ijpld.com/ijpld/article/view/42

O’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown.

Parlamento Europeo y Consejo de la Unión Europea. (2016). Reglamento (UE) 2016/679, General de Protección de Datos. Diario Oficial de la Unión Europea, L 119, 1-88. https://www.boe.es/doue/2016/119/L00001-00088.pdf

Parlamento Europeo y Consejo de la Unión Europea. (2024). Reglamento (UE) 2024/1689 por el que se establecen normas armonizadas en materia de inteligencia artificial. Diario Oficial de la Unión Europea, L 2024/1689, 1-144. https://www.boe.es/doue/2024/1689/L00001-00144.pdf

Pasquale, F. (2015). The black box society: The secret algorithms that control money and information. Harvard University Press. http://www.jstor.org/stable/j.ctt13x0hch

Quadratín México. (12 de noviembre 2025). Así operaban los 13 casinos investigados por lavado de dinero. https://mexico.quadratin.com.mx/asi-operaban-los-13-casinos-investigados-por-lavado-de-dinero/

R3D. Red en Defensa de los Derechos Digitales. (2026). Comentarios al cuestionario del impacto de la IA en los DDHH en las Américas. Relatoría Especial para la Libertad de Expresión, CIDH. https://r3d.mx/wp-content/uploads/Comentarios-IA-en-DDHH.pdf

Soltum. (2024). Presunción de inexistencia de operaciones: ¿Qué debe demostrar el contribuyente? https://soltum.com.mx/presuncion-de-inexistencia-de-operaciones-que-debe-demostrar-el-contribuyente/

Suprema Corte de Justicia de la Nación. (2014). Tesis P./J. 43/2014 (10a.). PRESUNCIÓN DE INOCENCIA. ESTE PRINCIPIO ES APLICABLE AL PROCEDIMIENTO ADMINISTRATIVO SANCIONADOR, CON MATICES O MODULACIONES. Gaceta del Semanario Judicial de la Federación. Libro 7, Junio de 2014, Tomo I, página 41. https://sjf2.scjn.gob.mx/detalle/tesis/2006590

Suprema Corte de Justicia de la Nación. (2025). Tesis I.20o.A.94 A (11a.), Registro digital: 2031350, PRESUNCIÓN DE INEXISTENCIA DE OPERACIONES AMPARADAS EN COMPROBANTES FISCALES. DEBER DE FUNDAR Y MOTIVAR LA DECISIÓN DE REVERTIR LA CARGA PROBATORIA PARA ACREDITAR SU MATERIALIDAD. Gaceta del Semanario Judicial de la Federación. Libro 2, Octubre de 2025, Tomo III, Volumen 1, página 419. https://sjf2.scjn.gob.mx/detalle/tesis/2031350