Científicos del MIT se propusieron investigar la historia de los algoritmos y en cómo han mejorado año a año. Según sus investigaciones, más de 120 familias de algoritmos existen desde hace más de 80 años y estas han ido volviéndose más eficientes con el paso del tiempo.

La idea era arrojar luz sobre el tema para comparar directamente la mejoría de software respecto a la mejoría de hardware. La Ley de Moore indica que cada dos años los procesadores tienen 2 transistores más, por lo que el hardware se hace mejor y más barato. Pero parece que los algoritmos han tomado ritmo.

El hardware se queda atrás

El 43% de las familias de algoritmos que resuelven problemas computacionales complicados ha mejorado año a año, igualando la eficiencia de la mejora de hardware. Según la investigación, el 14% de los algoritmos eran sencillamente más eficientes con una curva ascendente mucha más pronunciada que la de la mejora de hardware asociada. Esto se descubrió en la comparación de solución de problemas en los que se necesita comparar un gran número de datos.

Para los científicos de el Computer Science and Artificial Intelligence Laboratory, el avance más importante se dio cuando los algoritmos pasaron de la solución de problemas exponenciales a los de complexidad polinómica. Los primeros equivalen a descubrir la contraseña que va del 0 al 9. Mientras que los segundos serían como abrir un casillero con un candado digital de 50 dígitos. La contraseña podría ser una entre millones de combinaciones, y los algoritmos ya están en ese nivel, mientras que los procesadores no.

Matt Thompson, líder de la investigación comunicó lo siguiente:

A través de nuestro análisis, pudimos decir cuántas tareas más se podrían realizar utilizando la misma cantidad de potencia informática después de que se mejorara un algoritmo. A medida que los problemas aumentan a miles de millones o billones de puntos de datos, la mejora algorítmica se vuelve sustancialmente más importante que la mejora del hardware. En una era en la que la huella medioambiental de la informática es cada vez más preocupante, esta es una forma de mejorar las empresas y otras organizaciones sin inconvenientes.

El paper de los científicos se publicó en la revista Proceedings of the IEEE.

Escribir un comentario