La neurociencia podría ser la opción que tanto necesitan los modelos de inteligencia artificial para ser más robustos antes ante ataques informáticos. A medida que pasa el tiempo, las redes neuronales se han fortalecido y convertido en un factor esencial para el desarrollo de nuevas e innovadoras tecnologías.

Estas se inspiran en la estructura del cerebro humano para crear inteligencia artificial. Todo ello con el propósito de desarrollar sistemas computacionales que faciliten nuestras vidas. Un ejemplo claro de ello, son los editores de fotos, nuestros smartphones y hasta los novedosos automóviles autónomos.

Si bien estos sistemas son inteligentes no perciben nuestras emociones. Incluso, pueden cometer errores que los humanos no cometeríamos. Estas desventajas provocan que los modelos de IA fallen ante ciberataques.

TechTalks, para aclarar este panorama, usa la imagen de un panda con una capa imperceptible de ruido. Antes nuestros ojos, el mamífero de la izquierda es igual al de la derecha, es decir, un panda, ¿cierto?

Panda con y sin capa imperceptible de ruido
Capa imperceptible de ruido a la imagen del panda causa que una red neuronal convolucional lo confunda con un gibón

Sin embargo, la red neuronal convolucional confunde la imagen con capa de ruido en un primate. ¿Increíble, verdad? Esto se debe a que las neuronas del sistema inteligente tienden a fallar, aun cuando su estructura es similar a las “neuronas en la corteza visual primaria (V1) de un cerebro biológico”.

VOneNet, una arquitectura inspirada en la neurociencia

Para evitar que las redes neuronales convolucionales se confundan ante estas situaciones, algunos investigadores han ideado una nueva arquitectura llamada VOneNet.

Esta arquitectura “combina técnicas actuales de aprendizaje profundo con redes neuronales inspiradas en la neurociencia”. Un método que bien podría “cerrar la brecha” entre estas redes y el sistema de visión de los mamíferos.

Pero, ¿cómo se vuelve un modelo de inteligencia artificial ser más robusto?

Cox, director de IBM de MIT-IBM Watson AI Lab, y otros investigadores probaron varias arquitecturas, entre ellas “AlexNet, VGG y diferentes variaciones de ResNet”. Estas combinadas con algunos modelos de aprendizaje profundo permitieron evaluar la robustez del sistema frente ataques de “adversarios de caja blanca”, donde estos tiene pleno conocimiento de la estructura y los parámetros de las redes neuronales objetivo.

Para sorpresa de Cox y su equipo, “cuanto más parecido a un cerebro era un modelo, más robusto era el sistema contra los ataques adversarios”. ¿Qué significa esto? Que la neurociencia ayuda a la IA a ser más fuerte frente ante ataques informáticos.

“El cerebro es una máquina de procesamiento de información increíblemente poderosa y efectiva, y es tentador preguntarnos si podemos aprender nuevos trucos de él que puedan usarse con fines prácticos. Al mismo tiempo, podemos usar lo que sabemos sobre los sistemas artificiales para proporcionar teorías e hipótesis orientadoras que puedan sugerir experimentos que nos ayuden a comprender el cerebro”, expresa Cox.

Esto es solo el principio de lo que viene. Los investigadores indican que aún quedan muchos elementos de realismo biológico en los DNN por incorporar. Estamos muy interesados en saber que terminará todo esto. ¿Y tú?

Escribir un comentario