Los recientes avances en el uso del aprendizaje automático en una variada gama de aplicaciones han propiciado que la aceleración de la Inteligencia Artificial (IA) sea un elemento cada vez más importante en dentro de nuestra sociedad.

Gracias a la llegada de procesadores gráficos y los avances en el sector de la informática distribuida, la optimización de los sistemas basados en IA es mucho más sencilla que hace apenas algunos años. Sin embargo, este hardware no es totalmente eficiente, ya que incluso las GPUs de gran potencia pueden tardar un tiempo considerable en entrenar redes neuronales.

Los investigadores de IBM han estado construyendo una línea de aceleradores de hardware de IA para satisfacer esta demanda. En este sentido, han desarrollado un chip hecho a medida para el entrenamiento de IA.

En un estudio publicado en la revista Nature, se describe un sistema de transistores y capacitores que son capaces de entrenar redes neuronales de manera rápida, con precisión y con un alto nivel de eficiencia en relación al consumo de energía.

Las redes neuronales se basan en unidades interconectadas, llamadas nodos o neuronas, que reciben entradas numéricas. En el caso de una red común, estos nodos multiplican dichas entradas por un valor, un peso, y las transfieren a una función de activación, la cual define la salida del nodo. Gracias a un método conocido como retropropagación, los pesos son ajustados con el tiempo y esto mejora la precisión de las salidas.

Ahora bien, las GPUs son ideales en este proceso, debido a que procesa datos de manera secuencial, a diferencia de un procesador tradicional. Asimismo, son capaces de realizar una gran cantidad de cálculos simultáneamente.

Lo único negativo es que la distancia entre el procesador y la memoria de los chips es muy amplia en la placa base, lo que conduce a retrasos en el proceso mientras los datos van y vienen.

IBM quiere resolver este problema, que se traduce en un mayor consumo energético por parte de los ordenadores convencionales. En este sentido, Stefano Ambrogio, investigador de IBM, ha revelado la solución, y consiste básicamente en una memoria analógica y componentes electrónicos tradicionales.

En su investigación, los expertos de IBM utilizaron una combinación de PCM (unidad de memoria de cambio de fase) de hardware y componentes simulados por software para comparar el diseño de su chip, lo que según el documento, ha traído resultados prometedores.

Durante las pruebas, el chip construido por IBM realizó 10 veces más cálculos por milímetro cuadrado que una GPU utilizando 280 veces menos energía. De hecho, esta velocidad coincidía con la precisión del aprendizaje automático TensorFlow de Google en diversas tareas de visión por computadora.

Los chips de IBM para IA no están optimizados para redes neuronales que no estén totalmente conectadas, pero los investigadores afirmaron que están trabajando en este contexto.

Referencia: Equivalent-accuracy accelerated neural-network training using analogue memory. Naturevolume 558, pages60–67 (2018). DOI: https://doi.org/10.1038/s41586-018-0180-5.