A pesar de que el aprendizaje automático es una técnica de Inteligencia Artificial (IA) ampliamente utilizada dentro de la industria tecnológica actual para realizar predicciones a partir de una serie de datos específicos, la ausencia de una explicación sobre la forma en que la IA toma decisiones ha abierto la posibilidad de que existan consecuencias negativas.

El ejemplo más reciente de ello fue un estudio realizado por el Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés) donde se acusa a la tecnología de reconocimiento facial de Amazon de ser racista y discriminar a las personas por su género.

Para exponer abiertamente el funcionamiento de los sistemas internos de la IA, los investigadores de Google y la firma OpenAI han presentado una técnica que revela las interacciones de los elementos que componen las redes neuronales de clasificación de imágenes. Lo han llamado visualización de atlas de activación y aseguran que busca ilustrar la manera como estas interacciones permiten a un modelo de IA tomar decisiones.

En declaraciones a VentureBeat, Chris Olah, miembro del equipo técnico de OpenAI, aseguró:

Ha habido una larga investigación en la visualización de características, un [subcampo] de este sector que trata de comprender lo que está sucediendo dentro de las redes neuronales (…) Lo que estábamos tratando de hacer con los atlas de activación es ir y alejar y ver la imagen más amplia de las cosas que la red neuronal puede representar.

Los investigadores explicaron que las redes neuronales cuentan con funciones modeladas a partir de las neuronas biológicas. Estas funciones se organizan en capas y se conectan a través de una ‘sinapsis’ artificial que transmite señales a otras neuronas cercanas. A su vez, las señales viajan de una capa a otra y sintonizan con lentitud la red para ajustar la fuerza sináptica de cada conexión.

Con el paso del tiempo, la red se encarga de extraer elementos del conjunto de datos y luego identifica las tendencias de las muestras. Finalmente, el modelo aprende a realizar predicciones con precisión. Los expertos explicaron que las neuronas no predicen situaciones o imágenes de forma aislada, sino más bien operan de manera conjunta en grupos.

CEO de Google dice que la privacidad no puede ser un lujo

Estos grupos son los que, en definitiva, comprenden los patrones sobre las personas, los objetos, textos o el habla. Shan Carter, científico de Google, comparó la toma de decisiones de la IA con el alfabeto latino, debido a que, aunque las 26 letras de este sistema ofrecen la base para el idioma inglés, expresan poco sobre los conceptos lingüísticos. En este sentido, Carter explicó que nadie le dice a las redes neuronales que tomen decisiones. Simplemente lo hacen.

Sin embargo, esta información no explica la combinación de neuronas que deben estudiarse en la red ni tampoco la tarea que lleva a cabo cada grupo de neuronas. Para explicar ello, los científicos de Google revelaron una técnica de redes neuronales llamada ‘activación especial’, que tiene la incapacidad de revelar activaciones que se presentan en más de una muestra de entrada.

Es justo allí donde actúan los atlas de activación, tomando una entrada y organizándola por sus valores de activación en forma de vectores. Asimismo, muestran visualizaciones de las características de las activaciones promediadas, creando una visión universal de los conceptos que se crean dentro de las capas del modelo.

Estos atlas de activación están mejor representados por el concepto de lienzos o collages de fotos. El informe de Google y OpenAI reveló que los atlas exponen una gran cantidad de estructuras que se sabía estaban allí pero que los investigadores no sabían cómo ocurrían. Además, aseguraron que al no ser perfectas las redes neuronales, los atlas de activación puede exponer las fallas y sus causas.

Más en TekCrispy