En esta era en la que buscamos automatizar todo para solucionar nuestros problemas los algoritmos están a la orden del día. Existe uno para casi todo y quienes los diseñan trabajan arduamente para perfeccionarlos casi con frecuencia diaria, y aunque se venden como altamente efectivos y minuciosamente estudiados, en realidad acarrean una serie de errores humanos que nos hacen plantear la pregunta de si son realmente confiables.

Como ejemplo, cabe destacar una historia reciente que inundó los portales noticiosos hace unos meses cuyo protagonista fue el algoritmo de Google Maps. Un día que parecía ser cualquiera, un centenar de conductores en Colorado tomaron un atajo recomendado por Google Maps al haber un accidente en la vía hacia el Aeropuerto Internacional de Denver, solo que no sabían que la vía sería prácticamente un pantano que terminó por dejar atrapados a la mayoría de los vehículos.

Usuarios de Tinder y Snapchat son pro cirugías plásticas

Cualquiera podría preguntarse cómo es que esto pudo suceder si estamos hablando del señor Google, pero la verdad es que ese ejemplo en el pantano de Colorado dejó en evidencia la realidad de los algoritmos. A pesar de lo precisos e infalibles que puedan parecer, los algoritmos son creados por humanos, y, en consecuencia, pueden existir errores humanos, desde malos cálculos, pasando por información errada y hasta por sesgos culturales.

¿Algoritmos infalibles?

De vuelta al caso de Google Maps, la compañía reconoció que se trató de un error de información del camino, pues no estaba marcado como privado, dejando muy claro que su método no es perfecto ni mucho menos infalible:

“Tomamos muchos factores en cuenta para determinar las rutas, incluyendo el tamaño del camino y lo directo de la ruta. Mientras que trabajamos para proveer las mejores direcciones, pueden surgir algunos problemas por imprevistos como el tiempo. Alentamos a los conductores a seguir las leyes locales, mantenerse atentos y a usar su mejor criterio al conducir”.

Esto sucede precisamente porque no siempre la información que los usuarios suben a Google Maps es exacta, en tanto que puede que te haya pasado que buscabas una dirección y el lugar no estaba ubicado en el mapa en el punto específico real, sino algunos metros más lejos. Y esto por mencionar un caso sencillo, pero hay otros casos en los que los errores humanos han llevado los algoritmos –y a sus empresas– al desastre.

YouTube se posiciona de #1 en ranking de mejores aplicaciones

Algoritmos sesgados, consecuencias catastróficas

Todos recordamos los problemas por los que Facebook ha pasado en los últimos tres años. Tan solo hablar de Cambridge Analytica es mencionar las dos palabras que más han atormentado la mente de Mark Zuckerberg. No obstante, hay otro aspecto que también fue todo un escándalo para la compañía que fue alabada como la primera gran red social: los algoritmos de recomendación de fake news.

En 2016, Donald Trump se alzó como vencedor en las elecciones presidenciales de Estados Unidos frente a Hillary Clinton. Aunque básicamente el mundo entero veía los resultados con estupor y otros con total desconcierto, puede que Facebook haya tenido que ver con ese triunfo del magnate.

Facebook Congreso Huawei
Facebook ha estado bajo escrutinio muchas veces en los últimos años, pero ha sido su falta de competencia sobre los algoritmos de recomendación de fake news una de las más sonadas.
Google ahora permitirá desbloquear los servicios web a través de la huella dactilar

El auge de las fake news se dio durante esta voraz campaña política en la que parecía que Estados Unidos se jugaba la moral de su país. Tanto demócratas como republicanos se acusaban de ser más inmorales que los otros, anteponiendo el discurso patriótico que Trump supo aprovechar con su eslogan “Make America Great Again”. Lo que alimentó la campaña no fueron las noticias ni las opiniones de expertos, sino los memes y páginas de Facebook de grupos extremistas que se encargaron de destrozar la imagen de Clinton y su combo, con informaciones falsas que terminaron por comprar el voto del elector.

Una vez se descubrió este serio problema, usuarios y expertos comenzaron a exigirle a Facebook que atendiera el problema de la desinformación antes de que fuera demasiado tarde, pero la historia que todos conocemos es que, efectivamente, se hizo demasiado tarde para que Facebook frenara la proliferación de fake news en su plataforma.

Tres años después, Facebook aún no ha sido capaz de ponerle fin a las fake news en su plataforma, a pesar de los aparentes esfuerzos por solucionarlo. ¿Qué ha fallado? Dicho por los mismos empleados de la compañía en el documental ‘The Facebook Dilemma’, básicamente el problema se hizo tan grande que no hay poder humano que pueda con él.

No hay suficientes empleados que hagan frente a las fake news, no solo por las dimensiones del problema, sino porque no se han logrado definir los parámetros de lo que hace que una información sea falsa o una opinión. Y esto, en el país de la “libertad de expresión”, es un verdadero problema.

Otras aristas del problema de las fake news: Infowars

Alex Jones, un extremisa conspiracionista se mantuvo un buen tiempo en plataformas como YouTube, Twitter y Facebook que no lo bloqueaban pues consideraban que su discurso no era tal, sino una opinión.

Precisamente el concepto de la libertad de expresión en un país como Estados Unidos complica mucho la definición de parámetros y, por supuesto, la fiabilidad de un algoritmo. Seguro recordarán el caso de Alex Jones e Infowars durante 2018, un presentador extremista pro Trump, fanático de las teorías conspirativas.

Al publicar videos en las redes de él comentando sobre temas de relevancia como los tiroteos masivos, comenzó por decir que la matanza de la preparatoria de Sandy Hook fue toda una mentira de los medios y que las víctimas habían sido actores pagados. Tras meses de denuncias de sus detractores, compañías como YouTube, Apple, Facebook y Twitter terminaron por expulsarlo de sus plataformas, no sin antes meses de permisividad y mano suave con este tipo de contenido.

CEO de Google promete abordar la homofobia en YouTube junto a empleados LGBTQ

En el caso de Facebook y Twitter, eliminar a Alex Jones y a Infowars fue toda una faena, pues, expresado por sus principales voceros, Jones y su colectivo conspiracionista no estaban violando sus políticas de contenido, sino que estaba expresando una opinión y ese era su derecho.

Terribles y peligrosas recomendaciones

Cerrado el capítulo de Infowars, puede que los vigilantes del internet creían ganada una batalla hasta que explotó el escándalo por las recomendaciones sobre pedofilia y explotación infantil en YouTube. A principios de 2019, un usuario en Reddit publicó que el algoritmo de YouTube redirigía videos de niños con poca ropa a ciertos usuarios, promoviendo la pedofilia y además lucrándose por ello.

YouTube ha sido criticado numerosas veces por su algoritmo de recomendaciones tanto de contenido extremista como de pedofilia y explotación infantil.

Evidentemente que el llamado de atención se tornó un problema mayor que llevó a YouTube a reconsiderar la manera en la que trabajaban con su algoritmo de recomendaciones. Sin embargo, las soluciones no eran tales, pues consideraron que la mejor idea era eliminar todo el contenido infantil en lugar de hacer algo con respecto a los pedófilos.

Los reportes sobre cómo funcionaba este algoritmo resultan algo difíciles de leer, pero es una realidad que existe y que los algoritmos no están resolviendo. Aunque problemas como este y el del contenido extremista es sumamente serio y requiere de un estudio aparte, existen otros aspectos sobre los algoritmos que se deben tomar en cuenta.

Algoritmos imprecisos

En el caso de los algoritmos para tecnologías de reconocimiento facial, se corre el riesgo de que esté construido sobre un sesgo cultural que bien puede ser racial o de orientación sexual. Tal ha sido el caso de Uber, cuyo escándalo se remonta a mediados del 2018, cuando salió la noticia de que su sistema de reconocimiento facial había bloqueado el acceso a un conductor transgénero por haber cambiado de sexo durante su última revisión. Además, también se pudo conocer que el algoritmo tampoco estaba diseñado para detectar a personas de pieles oscuras.

Google cambia sus políticas de privacidad para tranquilizar a sus usuarios

Así lo denunció a principios de 2019 la congresista Alexandria Ocasio-Cortez durante un evento en el que criticó a empresas como IBM por desarrollar algoritmos de reconocimiento facial con sesgo racial que facilitaban el reconocimiento de rostros blancos por encima de los de color. Pero no solo prevalece la preferencia del color de la piel para reconocer más rápido, sino también para crear perfiles delictivos basándose en rostros de color, según declaró la congresista.

¿Y qué sucede con los algoritmos que buscan diagnosticar enfermedades? IBM ha estado trabajando especialmente en proyectos de inteligencia artificial para la salud del futuro, por ejemplo, con esta inteligencia artificial que promete detectar el cáncer de mama un año antes de su aparición al identificar patrones que coincidieran algunos aspectos malignos presentes en las biopsias.

Quizás una de las mayores preocupaciones de los médicos y expertos en el área científica es la precisión de estos algoritmos que predicen y diagnostican enfermedades basándose en aspectos muy generales. Es un conocimiento popular el que cada organismo es muy distinto, de ahí que existan los médicos, quienes, analizando el caso con exámenes, pueden llegar a un diagnóstico mucho más preciso.

Facebook ha eliminado más de 100 millones de cuentas falsas en lo que va de año

¿Qué se necesita para que un algoritmo sea confiable?

No obstante, un grupo de investigadores de Australia creó la plataforma MATILDA cuyas siglas en inglés significan “Melbourne Algorithm Test Instance Library Data Analytics”, cuyo objetivo es recabar información sobre cada algoritmo para identificar sus fortalezas y debilidades para recomendar cuál algoritmo utilizar bajo un escenario determinado y por qué.

De esta manera se puede ver su fiabilidad y factibilidad en un caso específico una vez haya sido analizado para determinar su mejor uso. Para que un algoritmo sea confiable se requiere que haya sido probado antes de llevarlo a la acción y adelantarse lo más posible a potenciales fallas y sus soluciones, no solo ponerlo en práctica y cruzar los dedos para que funcione.

Ya hemos visto que los algoritmos, al ser creados por humanos, pueden presentar serios problemas por información incorrecta o por imprevistos. Es por ello que no es recomendable confiar en ellos ciegamente y menos en casos tan delicados en los que vidas humanas corren peligro.

¿Y tú, confías o confiarías en el poder de los algoritmos o consideras que hay que tratarlos con pinza?

Más en TekCrispy