El mundo está comenzando a dar los pasos necesarios para entrar en una nueva era para la tecnología. La inteligencia artificial (IA) en distintos ámbitos del día a día ha dejado de ser la excepción para convertirse en la regla.

Por ello, en la actualidad, no son pocas las empresas del mundo de la tecnología que están enfocando sus esfuerzos en perfeccionar este tipo de programas. Una de las que ha logrado mantenerse a la cabeza en este esfuerzo ha sido Google.

La empresa se ha destacado por la creación de una gran variedad de IAs dedicadas a diferentes áreas. Algunas han sido capaces de estacarse en gran variedad de juegos virtuales. Otras han brillado en el campo de la medicina.

La evolución de Transformer

https://siliconangle.com/wp-content/blogs.dir/1/files/2018/11/share.pngAhora, una de las más recientes se ha destacado por su capacidad de analizar y entender el contexto de los escritos. El nombre elegido para ella ha sido Transformer. Sin embargo, a pesar de ser efectiva, esta IA se ha quedado corta en diversas áreas.

Conscientes de esto, y con la intención de mejorar continuamente, Google ha liberado la siguiente evolución de Transformer. El nombre de esta es Reformer y ha llegado para solucionar todos los puntos débiles de su predecesor.

Esta IA, ha demostrado tener una capacidad de análisis amplia de textos tan complejos como extensos. Asimismo, su peso ha resultado ser menor que la de su antecesor, por lo que ocupa menos espacio en los equipos en los que se la instale, contando solo con un tamaño de 16 GB.

¿Cuáles son los retos que deberán enfrentar las Big Tech en 2020?

¿Cómo funciona Reformer?

Para poder hacer que Reformer diera el siguiente paso, los desarrolladores de Google se dieron a la tarea de implementar dos procesos cruciales en el equipo. Ambos tenían la intención de llevar al siguiente nivel el poder de procesamiento de la IA.

Gracias a ello, los textos que para Transformer eran imposibles o demasiado largos, para Reformer no son un desafío. Ya que, el programa es capaz de analizar y comprender en simultáneo el contexto de varias líneas de texto en lugar de solo una frases.

Locality-Sensitive-Hashing (LSH)

Esta primera habilidad se trata de un atajo en el proceso de análisis por palabras. En un principio, Transformer comparaba cada palabra con aquellas que las circundaban.

Ahora, Reformer optimiza esta tarea al agrupar las palabras en “baldes” comunes. Luego, tiene la labor de comparar cada balde entre sí. De este modo, la labor de análisis de acorta y los resultados continúan siendo lo más exactos posibles.

Reversible residual layers

La segunda habilidad que se le dio a Reformer es la de trabajar con “capas residuales reversibles”. Con esto, la IA puede realizar una gran cantidad de trabajo sin saturar su memoria.

Para ello, trabaja con procesos y “atajos” que puede usar en distintas capaz del análisis. De este modo, no se ve en la necesidad de repetir estudios ni de almacenar nuevamente datos que ya posee. Por lo que el proceso se hace más ligero y, en consecuencia, más veloz.

Referencia:

Reformer: The Efficient Transformer: arXiv:2001.04451v1

Más en TekCrispy