TekCrispyTekCrispy
  • Ciencia
    • Historia
    • Perfiles
  • Tecnología
    • Software
    • Móviles
    • Herramientas Web
    • Redes Sociales
  • Cultura Digital
    • Cine y TV
    • Videojuegos
  • Análisis
Selección del Editor

¿Silicona o hidrogel? Las compañías estéticas están mejorando sus implantes mamarios

Jul 4, 2022

¿Qué pasaría si la Tierra dejara de girar?

Jul 4, 2022

¿Por qué este material magnético que se “congela” ha sorprendido a todos los físicos?

Jul 4, 2022

Google eliminará del historial de ubicaciones las clínicas de aborto, ¿debes relajarte?

Jul 4, 2022
Facebook Twitter Instagram TikTok Telegrama
TekCrispyTekCrispy
  • Ciencia

    ¿Silicona o hidrogel? Las compañías estéticas están mejorando sus implantes mamarios

    Jul 4, 2022

    ¿Qué pasaría si la Tierra dejara de girar?

    Jul 4, 2022

    ¿Por qué este material magnético que se “congela” ha sorprendido a todos los físicos?

    Jul 4, 2022

    ¿Cómo es que el 0 y el 1 son la base de la computación? Te contamos la historia del sistema binario

    Jul 4, 2022

    Nueva investigación revela el origen de los piojos de mamíferos

    Jul 4, 2022
  • Tecnología

    Google eliminará del historial de ubicaciones las clínicas de aborto, ¿debes relajarte?

    Jul 4, 2022

    Consiguen hacer que una computadora de 40 años reproduzca videos de YouTube

    Jul 4, 2022

    Se han filtrado datos personales de miles de personas en la dark web

    Jul 4, 2022

    Aprende a borrar la memoria caché de tu navegador

    Jul 4, 2022

    La computación en la nube está cerca de alcanzar otro gran hito

    Jul 4, 2022
  • Cultura Digital

    Lotte Reiniger: la pionera en cine de animación que soñaba con siluetas

    Jun 25, 2022

    Netflix y TikTok apuestan por el mundo de los videojuegos

    Jun 24, 2022

    NZXT se extiende a España, Nueva Zelanda y Reino Unido: ¿Qué trae esto para el Gaming?

    Jun 21, 2022

    PlayStation Store en México: qué es, cómo funciona y qué juegos comprar

    Jun 7, 2022

    ¿Cuáles son los eventos de eSports más esperados del año?

    May 31, 2022
Facebook Twitter Instagram TikTok
TekCrispyTekCrispy
Empresas

Facebook busca desarrollar nueva IA para detectar discursos de odio en memes

Por Oriana LinaresMay 12, 20204 minutos de lectura
Compartir
Facebook Twitter Email Telegrama WhatsApp

No es la primera vez que escuchamos de las incursiones de Facebook en el vasto mundo de la tecnología. Su más reciente anuncio ha venido de la mano con la publicación de un estudio realizado a diversos programas de inteligencia artificial y deep learning.

En este, mostraron la comparación entre las capacidades humanas y las de estos distintos programas para detectar mensajes de odio. Asimismo, construyeron una base de datos con la que no solo realizar las pruebas sino con la cual entrenar a futuro nuevos programas para que sean más eficientes.

Además de la publicación de la investigación, los autores Douwe Kiela, Hamed Firooz, Aravind Mohan, Vedanuj Goswami, Amanpreet Singh, Pratik Ringshia y Davide Testuggine también liberaron un comentario en el que daban una explicación más amplia de su estudio y sus implicaciones. Una que, a su vez, se vio complementada por otra publicación de blog en la que colegas investigadores comentan sobre este.

La investigación de Facebook

Para dar inicio a su estudio, los investigadores contaron con millones de imágenes y memes provistos por Facebook que fueron removidos de su plataforma por considerarlos inapropiados. Luego de eliminar de la lista aquellos que tenían contenidos pornográficos explícitos, el número descendió a poco más de 120 mil imágenes.

Seguidamente, estas pasaron por un proceso de selección en el que la especificidad y la claridad de estas fueron los puntos a tomar en cuenta para incluirlas o no a la base de datos. Al final, la lista de memes con ejemplos de mensajes de odio se constituyó con 10 mil imágenes.

El procesamiento multimodal

Su investigación comparativa midió las capacidades del machine learning y del deep learning desde sus dos perspectivas: los modelos unimodales y los más modernos modelos multimodales. Los primeros toman en cuenta para su análisis un solo elemento de los contenidos que analizan.

Por otro lado, los multimodales son capaces de hacer cruces entre dos elementos distintos de un mismo contenido. Como un ejemplo, se pueden tomar individualmente los textos e imágenes de arriba. Por separado se considerarían inofensivos, pero juntos el mensaje cambia y “se vuelve malvado”.

El entrenamiento

Los investigadores ofrecieron a los programas imágenes y textos inofensivos cuyo contenido combinado los hacía odiosos y viceversa –es decir, elementos que podrían considerarse odiosos que en conjunto se volvían positivos. De esta forma, esperaban ser capaces de medir qué tan eficiente es un programa al determinar qué tan apropiados o no son los contenidos cuando se presentan mensajes conflictivos.

Con los datos obtenidos, también lograron construir la base de datos con 10 mil imágenes que podrían utilizarse para entrenar nuevos programas y mejorar sus capacidades de procesamiento.

¿Por qué los autores no muestran los memes utilizados?

Dichos memes usualmente hacían referencias ofensivas a temas como la etnia, la religión o el género de una persona como signo de burla. Para evitar que estos contenidos se sigan difundiendo, los investigadores crearon equivalentes como los mostrados más arriba en los que se utilizan imágenes de animales para mostrar la esencia del mensaje de odio sin hacer referencia directa a los memes originales.

Aun así, Facebook sí cuenta con la base de datos original aún y la tiene disponible en GitHub para aquellos que deseen descargarla. Pero, la condición es clara, esta debe utilizarse solo como medio para entrenar otras IAs y no se debe promover la reproducción de su contenido.

Aún hay mucho espacio para mejorar

Los autores consideran que su investigación que ha mostrado que la mente humana detecta la “maldad” de los mensajes con un 84,7% de certeza contra un promedio de 64.73% en los mejores modelos de IA no es un punto para desanimarse.

De hecho, simplemente indica que aún hay mucho campo para mejorar. Determinaron fehacientemente que los modelos multimodales son al menos 10% más eficientes al detectar mensajes “malos” en memes que los unimodales.

Por lo que, el próximo paso es comenzar a trabajar con estos para mejorar incluso más sus capacidades. Asimismo, esperan cambiar pronto los sistemas de detección del propio Facebook que, por ahora, son unimodales. De esta forma, la plataforma podría ver un beneficio a corto plazo nacido de la investigación. La ventaja a largo plazo se verá cuando surjan más investigaciones que permitan estrechar la brecha entre las capacidades humanas y las de la IA.

Referencia:

The Hateful Memes Challenge: Detecting Hate Speech in Multimodal Memes: arXiv:2005.04790

Deep Learning Discurso de Odio Facebook Inteligencia Artificial Memes

Artículos Relacionados

¿Por qué Instagram ha estado bloqueando publicaciones que mencionan el aborto?

¿Qué significa gobernar una IA?

¿Los bebés son el futuro de la próxima generación de IA?

Añadir un comentario

Dejar una respuesta Cancelar respuesta

Selección del Editor

¿Distancia social para siempre? Esto buscan las personas que no quieren olvidar el confinamiento

Jul 3, 2022

¿Hubo más avistamientos de OVNIS en el pasado? Te lo explicamos

Jul 2, 2022

¿Qué beneficios para la piel tienen los antioxidantes que no tengan otros productos similares?

Jul 1, 2022

Campañas que muestran a mujeres con varios pesos motivan más a hacer ejercicio

Jun 30, 2022
Síguenos en las redes
  • Facebook
  • Twitter
  • Instagram
  • TikTok
Facebook Twitter Instagram LinkedIn TikTok
  • Publicidad
  • Contacto
  • Política de Privacidad
  • Acerca de TekCrispy
© 2022 CRISPYMEDIA LLC. DERECHOS RESERVADOS.

Escriba arriba y pulse Enter para buscar. Pulse Esc para cancelar.