La compañía multinacional ha decidido desactivar las sugerencias inteligentes de su servicio de correo electrónico, Gmail. Las medidas fueron tomadas para evitar caer en conflictos de género.

La función Smart Compose AI llegó a Gmail en mayo de este año, permitiéndole a sus usuarios completar automáticamente las oraciones mientras aún estaban escribiendo. Esta posibilidad es claro ejemplo de generación de lenguaje natural, es decir, que las computadoras aprenden según patrones y las relaciones entre las palabras, para así darse la tarea de producir oraciones completas.

Sin embargo, el AI de la plataforma estaba presentando algunas señales que actualmente son consideradas bastante preocupantes. Paul Lambert, gerente de productos de Gmail, explicó a Reuters cómo surgió el problema.

Lambert notó las fallas al tratar de escribir una oración en la que el pronombre “él” era sugerido automáticamente en lugar de “ella”. La inteligencia artificial tomó como referencia todos los datos de los correos electrónicos escritos y recibidos por los aproximados 1.500 millones de usuarios que tiene Gmail a nivel mundial, donde la mayoría de los empresarios, financieros e inversionistas son hombres.

En un momento como el que estamos viviendo actualmente, donde los temas relacionados con el género se destacan y se discuten, las políticas y las costumbres deben ser re-evaluadas para evitar conflictos discriminatorios.

Si bien los usuarios se han acostumbrado a los errores de la autocorrección, algunos hasta cómicos y embarazosos, desde Google, siendo una de las compañías más grandes a nivel mundial, se negaron a ponerse en riesgo, y, aunque inicialmente se buscó desarrollar algoritmos que solucionaran el problema, la decisión final, entendiendo lo delicado del tema, fue eliminar del sistema de completación automática los pronombres personales que hiciesen referencia al sexo de la persona.

El buscador de Google se actualiza para responder a preguntas elaboradas

La inteligencia artificial aparenta ser un sistema bastante avanzado que se basa en el aprendizaje de un contenido frecuente y mayoritario. Sin embargo, al guiarse por patrones no entiende de distinciones de género, raza ni clase. Según Prabhakar Raghavan, supervisora de la ingeniería de Gmail, es importante contar con la supervisión humana.

Esta no es la primera vez

En el 2015, el equipo de Google tuvo que emitir una disculpa por una eventualidad que ocurrió con la función de reconocimiento de imagen, ya que el sistema identificó a las personas de tez oscura como gorilas.

Un años después (2016) la compañía tuvo que modificar la función de autocompletar en sus motores de búsqueda. La misma llegó a sugerir a los usuarios que información errónea acerca de la religión y cultura judía.

Son esas razones las que llevan a la empresa a realizar pruebas, desarrolladas por el equipo de ética del Smart Compose AI, para descubrir nuevas señales de alerta y encontrar los errores “jugosos” antes que cualquier spamer o algún reconocido periodista. A su vez, trabajadores en todo el mundo se encuentran buscando posibles problemas culturales, ya que, Smart Compose tiene en sus planes iniciar su funcionamiento en cuatro idiomas más: español, portugués, italiano y francés.

Más en TekCrispy