La Privacidad de la Mente en Peligro: los Retos a los Derechos Humanos desde la Neurotecnología y la Inteligencia Artificial en la Era Digital | Paréntesis Legal

Fernando Elizondo García

 

Introducción

Imagina un mundo donde la privacidad y el dominio sobre tu propia mente desaparecen. Un mundo donde tus pensamientos y emociones ya no son privados y las empresas y los gobiernos pueden conocerlos, incluso contra tu voluntad. Un mundo donde las empresas usan esta información para cobrarte más por servicios como seguros médicos, y donde los gobiernos la usan para negarte derechos si tus creencias no coinciden con las suyas, incluso si nunca las has expresado en voz alta. Un mundo donde tus propios pensamientos, acciones o emociones pueden no ser tuyos, sino que han sido influenciados o plantados por otra persona.

Aterrador, ¿verdad?

Y, ¿qué tal si te digo que no necesitas imaginar este mundo porque ya estás viviendo en él?

Te presento a SmartCap:

SmartCap es solo uno de una larga lista de desarrollos recientes que buscan resolver ciertos problemas humanos o sociales a través de la tecnología. Y aunque a primera vista podamos pensar que estos son maravillosos (pues pueden serlo), también plantean nuevos e interesantes riesgos para la vida humana tal como la conocemos.

En la era tan cambiante de la inteligencia artificial (IA) generativa y la neurotecnología, nos enfrentamos a desafíos sin precedentes que requieren una reevaluación de los marcos de derechos humanos. La integración de la IA en los procesos de toma de decisiones y la llegada de tecnologías capaces de interactuar directamente con el cerebro humano plantean preocupaciones significativas sobre la privacidad, la autonomía y el potencial de manipulación y discriminación. En este artículo, exploraré más a fondo esta idea.

Para ello, en primer lugar, abordaré algunos conceptos clave que son necesarios para la discusión, como “neurotecnología” e “inteligencia artificial”. Luego, desarrollaré algunos de los problemas y riesgos específicos que surgen del uso de la neurotecnología y la IA. En tercer lugar, exploraré algunos de los marcos normativos actuales que existen tanto a nivel nacional como internacional para abordar estos problemas, con un enfoque particular en la experiencia mexicana. Finalmente, presentaré algunas ideas y propuestas que se han hecho para avanzar en el fortalecimiento de la protección de los derechos humanos en la era de la IA y la neurotecnología.

  1. Conceptos clave

Como mencioné antes, este texto se centra en los riesgos tanto de la IA como de la neurotecnología, por lo que es importante que entendamos ambos conceptos, así como otros asociados, antes de iniciar la discusión. Para hacerlo, le pedí a ChatGPT que proporcionara definiciones simples y concisas, por lo que todas las deficiones a continuación fueron elaboradas por IA.

La inteligencia artificial puede entenderse como “la simulación de procesos de inteligencia humana por sistemas informáticos, lo que permite a las máquinas realizar tareas que típicamente requieren cognición humana, como el aprendizaje, el razonamiento, la resolución de problemas, la comprensión del lenguaje natural y el reconocimiento de patrones”. En este contexto, la IA no es un fenómeno nuevo. De hecho, hay quienes trazan los orígenes de la IA hasta mediados del siglo XX. Algunos ejemplos de IA a lo largo de la historia incluyen programas de computadora de los años 80 que podían imitar las habilidades de toma de decisiones de una persona experta, sistemas de reconocimiento de voz de los años 90 y principios de los 2000 que vimos surgir en varios de nuestros dispositivos de esa época, e incluso la tecnología en la mayoría de los buzones de correo electrónico que clasifica el correo y envía parte de él a una carpeta de SPAM. Sin embargo, hoy en día, es la IA generativa (que se refiere a la IA que puede crear nuevo contenido, como texto, imágenes, música o videos al aprender patrones de datos existentes) la que está en el centro de atención.

Dos conceptos importantes asociados a la IA y especialmente a la IA generativa son las redes neuronales y los sesgos algorítmicos. Las redes neuronales son “modelos computacionales que imitan la estructura del cerebro humano utilizando nodos interconectados (neuronas) para reconocer patrones y aprender de los datos”. Muchos modelos actuales de IA generativa, como ChatGPT y otros Transformadores Generativos Preentrenados o GPT (Generative Pre-trained Transfomer) por sus siglas en inglés, utilizan este tipo de modelo. Por otro lado, el sesgo algorítmico se refiere a “errores sistemáticos en los sistemas informáticos que resultan en un trato injusto o resultados desfavorables para ciertos grupos, a menudo debido a datos sesgados o al diseño defectuoso de los algoritmos”. Dado que los modelos de IA están programados para simular los procesos cognitivos humanos y entrenados con datos hechos por humanos, es natural que la IA exhiba sesgos similares a los comúnmente observados en la mente humana.

La neurotecnología se refiere a “dispositivos y aplicaciones capaces de registrar o alterar la actividad del sistema nervioso, incluyendo el cerebro, la médula espinal y los nervios periféricos”. Hay dos categorías principales: neurotecnología de consumo, que incluye dispositivos como la SmartCap, y neurotecnología médica utilizada en entornos clínicos para diagnosticar o tratar condiciones relacionadas con la salud. Tradicionalmente, la neurotecnología médica o terapéutica ha sido estrictamente regulada en la mayoría de los países, aunque los desarrollos tecnológicos en esta área pueden presentar nuevos desafíos en el futuro. Sin embargo, es en el ámbito de la neurotecnología de consumo donde podemos encontrar la mayoría de los problemas que discutiremos más adelante.

Otro concepto importante es la Interfaz Cerebro-Computadora o BCI por sus siglas en inglés (Brain-to-computer interface) que describe “cualquier tecnología que conecta cerebros con computadoras, máquinas u otros dispositivos, facilitando la comunicación bidireccional entre el cerebro y el mundo exterior”. Las BCI pueden ser invasivas, que típicamente requieren que se implante un chip en el cerebro mediante métodos quirúrgicos, o no invasivas, como la SmartCap.

Después de esta breve introducción a algunos conceptos clave, profundizaré ahora en algunos problemas y desafíos que la IA y la neurotecnología presentan para los derechos humanos.

  1. Problemas en el contexto del uso de la IA y la neurotecnología

Generalmente, podemos clasificar los problemas que surgen en el contexto del uso de la IA y la neurotecnología en 4 categorías: 1) identidad y autonomía, 2) privacidad y consentimiento, 3) mejoramiento de capacidad cerebral y 4) sesgos (Yuste, Goering, y The Morningside Group, 2017).

Identidad y Autonomía

Uno de los problemas significativos relacionados con el uso de la neurotecnología es su impacto en la identidad y la autonomía de las personas. Tanto la IA como la neurotecnología tienen el potencial de perturbar la identidad y la autonomía de las personas usuarias. De hecho, algunas personas que han pasado por estimulación cerebral profunda han reportado percibir alteraciones en su sentido de autonomía e identidad (Yuste, Goering, y The Morningside Group, 2017).

Pero más allá de la percepción, lo cierto es que la IA y la neurotecnología pueden influir indebidamente en las personas para que crean o se comporten de ciertas maneras en contra de su voluntad. Los productos de neurotecnología son cada vez mejores en “leer” el cerebro y, con el tiempo, también mejorará su capacidad de “escribir” en el cerebro (Genser, Herrmann, y Yuste, 2022). Después de todo, si la neurotecnología puede saber y entender qué neuronas se activan en el cerebro cuando alguien se enoja o golpea a otra persona, la neurotecnología también podría estimular dichas neuronas para producir los mismos resultados.

Finalmente, esta erosión de los límites entre máquinas e individuos puede sacudir los supuestos existentes de responsabilidad tanto moral como legal. Informes del proyecto DARPA en Estados Unidos, por ejemplo, mencionan el desarrollo de tecnología que podría permitir a soldados controlar drones de combate con sus mentes (Defense Advanced Research Projects Agency, s.f.). Entonces, si no hay un límite claro en cuanto a dónde termina la mente humana y comienza la máquina, surgirán problemas al tratar de determinar la responsabilidad por las acciones llevadas a cabo en ese contexto.

Privacidad y Consentimiento

Hasta hoy, la experiencia más cercana que tenemos a la regulación de la neurotecnología y la IA proviene del mundo de los derechos de privacidad y la protección de datos personales. En este marco, la privacidad y el consentimiento son dos conceptos inseparables. La idea central detrás de la protección de datos es que todos los datos personales y, en particular los datos sensibles, son privados y solo pueden ser recopilados, procesados o divulgados con el consentimiento previo de su titular. Sin embargo, en el ámbito de los datos neuronales y la IA, este enfoque puede resultar insuficiente.

Actualmente no existe consenso sobre cómo tratar los datos neuronales y existen, al menos, cuatro posiciones diferentes sobre esto (Cornejo-Plaza, Cippitani, y Pasquino, 2024). Primero, hay quienes consideran los datos neuronales como datos personales. En segundo lugar, estan las personas que argumentan que deben considerarse como una “categoría especial de datos”, como ya es el caso con datos sensibles (por ejemplo, el estado de salud de una persona o su orientación sexual). En el tercer grupo encontramos personas e instituciones que afirman que los datos neuronales deben tratarse como datos biométricos. Finalmente, la cuarta posición aboga por un nuevo tipo de tratamiento, dado el carácter especial de estos datos.

El problema es que, a diferencia de los datos personales, los datos neuronales pueden revelar mucho más de una persona de lo que podrían haber previsto originalmente (Genser, Damianos, y Yuste, 2024). Esto se debe a que, con los avances en la IA y la neurotecnología, conjuntos de datos neuronales que se recopilan y almacenan hoy, en un par de años podrían procesarse de nuevas maneras para revelar nueva información sobre una persona. Por lo tanto, el consentimiento se vuelve bastante complicado cuando la persona no puede saber con certeza cómo se puede interpretar en el futuro la información neural que está compartiendo actualmente o qué información revelará sobre ella.

Dada esta cuestión fundamental, hay una falta de prácticas estandarizadas sobre cómo regular la IA y la neurotecnología tanto en el sector público como en el privado (Genser, Damianos, y Yuste, 2024). En Chile, por ejemplo, una reciente sentencia del Tribunal Supremo de octubre del año pasado tuvo que analizar esta cuestión y, aunque el Tribunal aplicó la ley de protección de datos en el análisis, también reconoció otros enfoques posibles, como la ley de protección al consumidor (Cornejo-Plaza, Cippitani, y Pasquino, 2024).

Mejoramiento de capacidad cerebral

Varios productos de neurotecnología de consumo que existen hoy en día prometen ayudar a las personas usuarias con todo tipo de problemas cognitivos, como aumentar los periodos de atención, profundizar los estados meditativos o de sueño, e incluso reducir el estrés y la ansiedad (Genser, Damianos, y Yuste, 2024). Y por fantástico y transformador que suene esto, la verdad es que, dado el alto costo de esta tecnología y las actuales desigualdades socioeconómicas que existen en el mundo, lo cierto es que no estará al alcance de todo el mundo. Por ello, existe el riesgo de discriminación en el acceso equitativo a tecnologías que aumentan las capacidades sensoriales o mentales. El problema es que, aquellas personas que no pueden permitirse tales mejoras podrían quedarse atrás, exacerbando las desigualdades existentes.

Además, el uso de tecnología para la mejora neurológica, particularmente en entornos no terapéuticos, puede plantear problemas de eugenesia. La eugenesia es una práctica que busca mejorar la calidad genética de una población, a menudo a través de métodos que pueden ser éticamente cuestionables, como la selección de ciertos rasgos y la eliminación de otros. Esta discusión ya se ha dado antes en el contexto de las mejoras genéticas y los procedimientos que existen, por ejemplo, para identificar y reducir problemas genéticos durante el embarazo. La neurotecnología podría llevar a prácticas similares, donde se intenten seleccionar o alterar capacidades cognitivas específicas, lo que podría aumentar las desigualdades y plantear serios dilemas éticos sobre la manipulación de la naturaleza humana.

Sesgos

Finalmente, como mencioné antes, la IA reproduce y perpetúa los sesgos y estereotipos existentes. En un mundo donde la IA se utiliza cada vez más para analizar y resolver problemas, esto tiene el potencial de producir decisiones sesgadas que podrían resultar en prácticas discriminatorias que niegan derechos o servicios a grupos e individuos ya vulnerables. Un estudio de 2015 encontró que las vacantes de empleo que el algoritmo de Google mostraba a sus usuarias mujeres pagaban menos que los que mostraba a hombres (Yuste, Goering, y The Morningside Group, 2017). ¿Significa esto que Google es machista? No. Pero si el algoritmo se alimenta de datos existentes y esos datos provienen de un mundo donde tradicionalmnete se paga más a hombres que a mujeres por el mismo trabajo, esto también se verá reflejado en las decisiones que toma la IA.

En este punto, creo que ha quedado claro que la IA y la neurotecnología representan tanto grandes oportunidades como grandes riesgos para la experiencia humana. Revisemos ahora brevemente cómo los gobiernos, las instituciones privadas y la comunidad internacional en general están abordando estos problemas.

  1. Marcos normativos

Actualmente existen esfuerzos tanto a nivel nacional como internacional para comprender mejor y reducir los riesgos de la IA y la neurotecnología sobre la dignidad humana.

Esfuerzos Internacionales

A nivel global y regional, algunos de los esfuerzos para regular la neurotecnología y la IA incluyen:

  • Las Recomendaciones de la OCDE sobre Innovación Responsable en Neurotecnología.
  • La Declaración del Comité Jurídico Interamericano sobre Neurociencia, Neurotecnologías y Derechos Humanos.
  • Los Principios de Tshwane sobre Seguridad Nacional y el Derecho a la Información.
  • La Declaración de León sobre Neurotecnología Europea: Un enfoque centrado en el ser humano y orientado a los derechos.

Además, varias Agencias, Organismos y Procedimientos Especiales de la Organización de las Naciones Unidas (ONU) han publicado informes y directrices sobre el tema. Por ejemplo, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) elaboró el “Primer Borrador de una Recomendación sobre la Ética de la Neurotecnología” (UNESCO, 2024). De manera similar, el Relator Especial sobre el Derecho a la Privacidad de la ONU ha producido varios informes temáticos sobre cuestiones relacionadas con la inteligencia artificial y la privacidad en la era digital.[1]

Esfuerzos Nacionales

Varios países también han comenzado a implementar medidas para abordar estos problemas a nivel nacional. Chile es el primer país del mundo en incluir una protección para la información neural en su Constitución (Guzman, 2022). El texto actual del artículo 19 constitucional chileno establece que “El desarrollo científico y tecnológico estará al servicio de las personas y se llevará a cabo con respeto a la vida y a la integridad física y psíquica. La ley regulará los requisitos, condiciones y restricciones para su utilización en las personas, debiendo resguardar especialmente la actividad cerebral, así como la información proveniente de ella”. Además, la Corte Suprema de Chile también se ha convertido en la primera en analizar y resolver un caso relacionado con datos neuronales y privacidad (Cornejo-Plaza, Cippitani, y Pasquino, 2024).

Otros ejemplos incluyen legislación a nivel estatal promulgada en partes de los Estados Unidos de América y de Brasil, Cartas no vinculantes sobre Derechos Digitales aprobadas por España y México, y un proyecto de ley que actualmente se está estudiando en Uruguay.

El Caso Mexicano

Particularmente en México, el problema está todavía lejos de ser discutido y abordado adecuadamente; sin embargo, ya podemos encontrar algunos esfuerzos tanto en el sector público como en el privado para comenzar a regular estos problemas.

El 9 de octubre de 2023, la Comisión de Protección de Datos Personales del Sistema Nacional de Transparencia, Acceso a la Información Pública y Protección de Datos Personales adoptó la Carta de Derechos de la Persona en el Entorno Digital (Guerrero García, 2024). El documento se describe a sí mismo como un “baluarte para todas aquellas personas que no nos hemos preocupado por leer la letra pequeña cada vez que descargamos una aplicación, ingresamos a una red social o hacemos alguna compra electrónica, pues nos ayudará a tomar conciencia de los riesgos que afrontamos al hacer uso de las tecnologías, pero también que no estamos solos en la defensa de nuestros derechos” (Mendoza Iserte y otros, s.f.). La Carta incluye 9 capítulos que contienen disposiciones relacionadas con i) igualdad digital, ii) libertades en el entorno digital, iii) derecho a la seguridad y protección de datos personales, iv) derecho a la participación, a la democracia y al buen gobierno digital, v) derechos laborales, vi) derechos de las personas en situación de vulnerabilidad, vii) neuroderechos, viii) ética en el uso de la IA y ix) medios de defensa y derechos de las víctimas en el contexto digital.

En lo que respecta a la neurotecnología, la Carta básicamente reconoce los cinco neuroderechos básicos que actualmente se promueven a nivel internacional: i) derecho a la preservación de la identidad personal, ii) derecho a la privacidad de datos neuronales, iii) derecho a la no interferencia en la libertad de decisión, iv) derecho a la equidad en el mejoramiento de la capacidad cerebral, y v) derecho de protección contra el sesgo y de discriminación. Sobre la cuestión de la IA, se incluyen cuatro disposiciones: i) el derecho al uso de IA centrada en la persona, ii) derecho a la privacidad y protección de datos personales en el uso de la IA, iii) transparencia y acceso a la información en el uso de la IA, y iv) derecho a la seguridad en el uso de la IA.

Desafortunadamente, la Carta es muy clara en su naturaleza no vinculante, lo que significa que todavía queda un largo camino por recorrer para transformar este código de buenas prácticas en disposiciones legales vinculantes.

Sin embargo, la regulación de la IA y la neurotecnología no es algo que deban abordar exclusivamente los gobiernos y las organizaciones internacionales. Las instituciones privadas, como las empresas y las universidades, también deben participar en el desarrollo de directrices éticas para el uso de estas tecnologías en sus contextos específicos. En México, el Tecnológico de Monterrey, una de las universidades privadas más grandes del país, ha publicado recientemente dos versiones de las Directrices Éticas para el Uso de la Inteligencia Artificial, una para estudiantes y otra para personal docente (Tecnológico de Monterrey, 2023). El documento abraza y promueve el uso de la IA en entornos académicos, pero también reconoce sus posibles riesgos y proporciona a estudiantes y personal docente directrices éticas sobre cómo usar la IA, así como describir algunos comportamientos no éticos.

Para avanzar, sin embargo, se requieren esfuerzos más serios y de mayor alcance que garanticen la adecuada protección de los seres humanos en la era digital. En la siguiente y última sección, mencionaré brevemente algunos de estos pasos.

  1. El camino a seguir

Entonces, ¿cómo debemos abordar estos problemas? Varias personas y organizaciones han hecho recomendaciones sobre algunos de los próximos pasos a seguir. Algunos de estos incluyen:

A) A nivel nacional:

  • Promulgar legislación sobre neuroderechos para asegurar la protección de la privacidad e integridad mental.
  • Regular la protección de datos neuronales para salvaguardar la información neural sensible.
  • Asegurar la transparencia algorítmica para hacer que los sistemas sean responsables y prevenir sesgos.
  • Promover el acceso equitativo a la neurotecnología para prevenir desigualdades sociales.
  • Establecer directrices éticas para gobernar el desarrollo y uso de estas tecnologías tanto en el sector público como en el privado.

B) A nivel internacional:

  • Interpretar el derecho internacional existente en los tratados internacionales de derechos humanos para incluir protecciones contra el uso indebido de la neurotecnología a través de mecanismos como las Observaciones Generales de los Órganos de Tratados o los informes de los Procedimientos Especiales de la ONU.
  • Adoptar nuevas convenciones y tratados internacionales sobre neuroderechos e inteligencia artificial para establecer estándares globales.
  • Crear mecanismos al interior de la ONU para monitorear y abordar los problemas emergentes de la neurotecnología.

Dado el increíblemente rápido y acelerado avance que están mostrando la inteligencia artifical y la neurotecnología, es fundamental que estos temas empiecen a discutirse y a regularse con urgencia y seriedad en México y en todo el mundo. De lo contario, la expriencia humana como la conocemos hasta ahora puede cambiar de manera radical y no necesariamente para bien. No se trata de destruir o renegar de la tecnología, sino de encontrar maneras éticas, responsables y sobre todo centradas en las personas, que permitan utilizar su potencial para el bien del planeta y de los seres que habitamos en él. Como dijo el Tío Ben a Peter Parker cuando se convirtió en el Hombre Araña: Todo gran poder, conlleva una gran responsabilidad.

 

Fuentes consultadas

Cornejo-Plaza, M. I., Cippitani, R., & Pasquino, V. (2024). Chilean Supreme Court ruling on the protection of brain activity: Neurorights, personal data protection, and neurodata. Frontiers in Psychology, 15, 1330439. https://doi.org/10.3389/fpsyg.2024.1330439

Defense Advanced Research Projects Agency. (s.f.). Next-generation nonsurgical neurotechnology. DARPA. Recuperado desde https://www.darpa.mil/program/next-generation-nonsurgical-neurotechnology

Genser, J., Damianos, S., & Yuste, R. (2024). Safeguarding brain data: Assessing the privacy practices of consumer neurotechnology companies. Neurorights Foundation. Retrieved from https://www.perseus-strategies.com/wp-content/uploads/2024/04/FINAL_Consumer_Neurotechnology_Report_Neurorights_Foundation_April-1.pdf

Genser, J., Herrmann, S., & Yuste, R. (2022). International human rights protection gaps in the age of neurotechnology. Neurorights Foundation. Recuperado desde https://static1.squarespace.com/static/60e5c0c4c4f37276f4d458cf/t/6275130256dd5e2e11d4bd1b/1651839747023/Neurorights+Foundation+PUBLIC+Analysis+5.6.22.pdf

Guerrero García, A. R. (2024). La Carta de Derechos de la Persona en el Entorno Digital. México Transparente, 8, 87-93. https://snt.org.mx/revistadigital/?page_id=609

Guzmán, L. H. (2022, marzo 31). Chile, pionero en la protección de los “neuroderechos”. El Correo de la UNESCO. Retrieved from https://courier.unesco.org/es/articles/chile-pionero-en-la-proteccion-de-los-neuroderechos

Mendoza Iserte, J., Arteaga Dirzo, M., Vicente González, E., Contreras Torres, E. E., & García Esparza, J. A. (Coords.) (s.f.). Carta de Derechos de la Persona en el Entorno Digital: Código de Buenas Prácticas. Comisión de Protección de Datos Personales del Sistema Nacional de Transparencia. Recuperado de https://www.infocdmx.org.mx/doctos/2022/Carta_DDigitales.pdf

Tecnológico de Monterrey. (2023). Lineamientos éticos para el uso de inteligencia artificial. Recuperado de https://tec.mx/es/integridad-academica/inteligencia-artificial​:citation[oaicite:0]{index=0}&#8203

UNESCO. (2024). Outcome document of the first meeting of the AHEG: First draft of a recommendation on the ethics of neurotechnology. Retrieved from https://unesdoc.unesco.org/ark:/48223/pf0000389768

Yuste, R., Goering, S., & The Morningside Group. (2017). Four ethical priorities for neurotechnologies and AI. Nature, 551, 159-163. https://doi.org/10.1038/551159a

[1] Una lista completa de los reportes temáticos de la Relatoría puede consultarse acá: https://www.ohchr.org/en/special-procedures/sr-privacy/annual-thematic-reports