Nuestros pensamientos son un secreto para la mayoría de las personas. A veces, ni siquiera nosotros mismos somos conscientes de lo que está pasando por nuestra cabeza al hablar con un amigo o ver una película. Pero, ¿qué pasaría si una inteligencia artificial pudiera adivinar todos esos pensamientos?

Bueno, no es necesario imaginarlo porque ya existe una IA capaz de convertir tus ideas en imágenes. Y no estamos hablando de los modelos generativos DALL-E o Midjourney, sino de un algoritmo diseñado únicamente para leer tu mente.

Científicos asiáticos han creado un sistema que puede transformar resonancias magnéticas en imágenes empleando Stable Diffusion. Entonces, si estás pensando en un pez dorado durante una de estas pruebas, la IA lo sabrá y producirá una imagen similar en respuesta. 

Las imágenes que verás a continuación fueron hechas en un estudio reciente. Han sido generadas por la inteligencia artificial tras analizar los escáneres cerebrales de los participantes, así que puede que notes algunas cosas fascinantes y otras un tanto perturbadoras. 

Pensamientos en píxeles 

A la izquierda, la imagen que tenían en mente los participantes. A la derecha, la imagen generada con IA / Créditos: Business Insider

Como podemos ver, la IA no es perfecta. Esto se debe a que la lectura de la actividad cerebral humana, las ondas que el sistema usa para adivinar lo que piensas, no son tan precisas como las palabras. Pero los investigadores de la Universidad de Stanford, la Universidad Nacional de Singapur y la Universidad China de Hong Kong están trabajando en los ajustes. 

Aún así, a pesar de sus errores, sorprende la precisión de algunas imágenes. Según comentan, los atributos de las fotos originales, como el color, la textura o el tema general, coinciden con los de la IA un 84% de las veces.

A la izquierda, la imagen que tenían en mente los participantes. A la derecha, la imagen generada con IA / Créditos: Business Insider

Para este experimento, el equipo recopiló datos de la actividad cerebral de los participantes mientras se les mostraban imágenes. Si bien se recolectaron muestras de muchos participantes, solo se publicaron un par de fotografías generadas por la inteligencia artificial. 

No obstante, solo una prueba bastaría para demostrar que su IA puede crear en función de los pensamientos de las personas que estaban dentro de una máquina de resonancia magnética (fMRI).

¿Cómo es que la IA puede leer nuestra mente?

La reconstrucción de la actividad cerebral humana en imágenes digitales no es algo novedoso. Un estudio japonés también logró transformar las ondas eléctricas del cerebro en datos, parecidos a los que genera un usuario al escribir un comando en Midjourney o DALL-E.

Así que es posible adivinar pensamientos con ayuda de las nuevas tecnologías, pero se requiere un entrenamiento previo.

Para generar estas imágenes, el modelo IA utilizado en el experimento y conocido como Mind-Vis tuvo que superar varias pruebas. Primero, se entrenó con un gran conjunto de datos preexistentes de más de 160,000 escáneres cerebrales. Luego, se preparó con otro conjunto de datos más pequeños en tiempo real. Y finalmente, la IA tuvo que medir la actividad cerebral de cada participante durante 20 horas para amoldarse a sus patrones.

A la izquierda, la imagen que tenían en mente los participantes. A la derecha, la imagen generada con IA / Créditos: Business Insider

Fue gracias a esto que aprendió a vincular actividades cerebrales específicas con ciertas características de una imagen, como el color, la forma o la textura. 

Más allá de lo divertido que puede ser retar a Mind-Vis a un juego de adivinanzas, este sistema ofrece una forma única de comprender cómo el cerebro representa el mundo. Lo cual podría ser vital en el campo de la medicina, la psicología y la neurociencia.

Por ejemplo, las personas que no pueden comunicarse verbalmente serían capaces de compartir sus pensamientos a través de imágenes.

“A medida que la tecnología mejore, las personas eventualmente podrán controlar una computadora simplemente pensando en los comandos en lugar de escribir en los teclados”.

Zijiao Chen, investigador doctorado en la Universidad Nacional de Singapur

Esta es solo una prueba más de ese futuro tecnológico al que todos aspiramos.

Referencias:

Seeing Beyond the Brain: Conditional Diffusion Model with Sparse Masked Modeling for Vision Decoding https://doi.org/10.48550/arXiv.2211.06956 

Check out these images of what an AI created when trying to read a person’s mind https://www.businessinsider.com/ai-generated-images-persons-thoughts-brain-scan-study-2023-3

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *