Hace un par de semanas, un equipo de la Universidad de Texas presentó un dispositivo IA capaz de convertir pensamientos en bloques de texto. A través de una resonancia magnética del cerebro, la máquina interpretaba, con sus propias palabras, qué quería decir la persona voluntaria. Pero este no es el único caso donde la IA ha adquirido la habilidad de “decodificarnos”.
En 2019, la empresa Neuralink creó implantes para leer las ondas cerebrales de las personas que han dejado de poder articular palabras. Y ocho años antes, un neurocientífico de UC Berkeley consiguió que un algoritmo que representaba torpemente las imágenes mentales que tenía un paciente en la cabeza. Así que es evidente que habrá más máquinas que lean la mente en el futuro, lo que nos lleva a preguntarnos cómo se podrían controlar tales IA para proteger nuestra privacidad.
Neurocientíficos y especialistas en ética discutieron el tema en una reunión en París organizada por la UNESCO, y concluyeron que debía cambiarse la legislación existente sobre derechos humanos.
“Neuroderechos” para regular la lectura de mentes

Hasta ahora, la tecnología solo usaba técnicas eléctricas o de imágenes para tratar ciertas enfermedades como el Parkinson. Si bien recopilaban datos cerebrales para permitir que los usuarios controlaran el software, no violabas su privacidad. Pero los avances en neurotecnología este año incluyeron una técnica de neuroimagen que puede decodificar el contenido de los pensamientos de las personas e interfaces cerebro-computadora (BCI) implantadas que pueden convertir los pensamientos de las personas en texto.
Ambos sistemas están creciendo discretamente dentro de los hospitales y laboratorios. La UNESCO estima que, en todo el mundo, la cantidad de patentes y la inversión en máquinas de lectura cerebral se multiplicó por 22 entre 2010 y 2020. Además, desde nuevas empresas hasta gigantes tecnológicos, todos están desarrollando auriculares, audífonos y pulseras que registran diferentes formas de actividad neuronal para adaptarse al usuario.
Por eso dos investigadores discutieron la idea de los “neuroderechos”, aquellos que protegen contra terceros que pueden acceder y afectar la actividad neuronal de una persona. Estos derechos serían:
- Protección contra manipulaciones que cambian la personalidad.
- El derecho a la intimidad mental.
- Libre albedrío y toma de decisiones protegidas.
- Acceso equitativo a la lectura mental.
- Y protección contra sesgos en los algoritmos que son fundamentales para la neurotecnología.
El objetivo de estos derechos es evitar que se introduzcan o extraigan datos del cerebro de un usuario sin su consentimiento, y velar para que las empresas de neurotecnología ofrezcan a los clientes la posibilidad de compartir o no sus datos cerebrales. Sin embargo, tales políticas contra las máquinas que leen la mente también se enfrentan a varios desafíos.
¿Realmente se puede controlar el avance de la neurotecnología?

Los productos destinados al uso clínico se rigen en gran medida por las reglamentaciones existentes para medicamentos y dispositivos médicos. Por ejemplo, un sistema que monitorea la actividad cerebral de personas con epilepsia y estimula sus cerebros para suprimir convulsiones es legal siempre que sea necesario para el tratamiento.
Por lo tanto, los implantes que permiten a las personas paralizadas controlar varios dispositivos externos usando solo sus pensamientos también podrían entrar dentro de esta categoría. Algo que muchos temen, pues las redes sociales ya usan datos personales para obtener ganancias políticas o comerciales.
Chile ha sido el único país en actualizar su constitución para reconocer que la neurotecnología necesita supervisión legal. Allí los legisladores están discutiendo cómo preservar los derechos humanos y permitir la investigación de estas máquinas para leer la mente. Pero lo ideal sería que todas las naciones del mundo tuvieran una legislación similar en torno a estas IA.
“Cuando se trata de neurotecnología, no es demasiado tarde. Aún no ha ido a escala en toda la sociedad”.
Nita Farahany, especialista en ética de la Universidad de Duke en Durham
Hasta que eso no ocurra, sí deberíamos preocuparnos por la llegada de las máquinas que leen la mente.
Referencias:
Mind-reading machines are coming — how can we keep them in check? https://doi.org/10.1038/d41586-023-02405-y