No es la primera vez que escuchamos de las incursiones de Facebook en el vasto mundo de la tecnología. Su más reciente anuncio ha venido de la mano con la publicación de un estudio realizado a diversos programas de inteligencia artificial y deep learning.

En este, mostraron la comparación entre las capacidades humanas y las de estos distintos programas para detectar mensajes de odio. Asimismo, construyeron una base de datos con la que no solo realizar las pruebas sino con la cual entrenar a futuro nuevos programas para que sean más eficientes.

Además de la publicación de la investigación, los autores Douwe Kiela, Hamed Firooz, Aravind Mohan, Vedanuj Goswami, Amanpreet Singh, Pratik Ringshia y Davide Testuggine también liberaron un comentario en el que daban una explicación más amplia de su estudio y sus implicaciones. Una que, a su vez, se vio complementada por otra publicación de blog en la que colegas investigadores comentan sobre este.

La investigación de Facebook

Para dar inicio a su estudio, los investigadores contaron con millones de imágenes y memes provistos por Facebook que fueron removidos de su plataforma por considerarlos inapropiados. Luego de eliminar de la lista aquellos que tenían contenidos pornográficos explícitos, el número descendió a poco más de 120 mil imágenes.

Seguidamente, estas pasaron por un proceso de selección en el que la especificidad y la claridad de estas fueron los puntos a tomar en cuenta para incluirlas o no a la base de datos. Al final, la lista de memes con ejemplos de mensajes de odio se constituyó con 10 mil imágenes.

El procesamiento multimodal

Su investigación comparativa midió las capacidades del machine learning y del deep learning desde sus dos perspectivas: los modelos unimodales y los más modernos modelos multimodales. Los primeros toman en cuenta para su análisis un solo elemento de los contenidos que analizan.

Por otro lado, los multimodales son capaces de hacer cruces entre dos elementos distintos de un mismo contenido. Como un ejemplo, se pueden tomar individualmente los textos e imágenes de arriba. Por separado se considerarían inofensivos, pero juntos el mensaje cambia y “se vuelve malvado”.

El entrenamiento

Los investigadores ofrecieron a los programas imágenes y textos inofensivos cuyo contenido combinado los hacía odiosos y viceversa –es decir, elementos que podrían considerarse odiosos que en conjunto se volvían positivos. De esta forma, esperaban ser capaces de medir qué tan eficiente es un programa al determinar qué tan apropiados o no son los contenidos cuando se presentan mensajes conflictivos.

Con los datos obtenidos, también lograron construir la base de datos con 10 mil imágenes que podrían utilizarse para entrenar nuevos programas y mejorar sus capacidades de procesamiento.

¿Por qué los autores no muestran los memes utilizados?

Dichos memes usualmente hacían referencias ofensivas a temas como la etnia, la religión o el género de una persona como signo de burla. Para evitar que estos contenidos se sigan difundiendo, los investigadores crearon equivalentes como los mostrados más arriba en los que se utilizan imágenes de animales para mostrar la esencia del mensaje de odio sin hacer referencia directa a los memes originales.

Aun así, Facebook sí cuenta con la base de datos original aún y la tiene disponible en GitHub para aquellos que deseen descargarla. Pero, la condición es clara, esta debe utilizarse solo como medio para entrenar otras IAs y no se debe promover la reproducción de su contenido.

Aún hay mucho espacio para mejorar

Los autores consideran que su investigación que ha mostrado que la mente humana detecta la “maldad” de los mensajes con un 84,7% de certeza contra un promedio de 64.73% en los mejores modelos de IA no es un punto para desanimarse.

De hecho, simplemente indica que aún hay mucho campo para mejorar. Determinaron fehacientemente que los modelos multimodales son al menos 10% más eficientes al detectar mensajes “malos” en memes que los unimodales.

Por lo que, el próximo paso es comenzar a trabajar con estos para mejorar incluso más sus capacidades. Asimismo, esperan cambiar pronto los sistemas de detección del propio Facebook que, por ahora, son unimodales. De esta forma, la plataforma podría ver un beneficio a corto plazo nacido de la investigación. La ventaja a largo plazo se verá cuando surjan más investigaciones que permitan estrechar la brecha entre las capacidades humanas y las de la IA.

Referencia:

The Hateful Memes Challenge: Detecting Hate Speech in Multimodal Memes: arXiv:2005.04790

Más en TekCrispy