La forma en la que Facebook regula sus mensajes y contenidos ha sido puesta en juicio en los últimos años. Desde el escándalo del 2016, la confianza en la plataforma nunca ha sido la misma.

Ahora, se acercan las elecciones del 2020 y Facebook se ha encargado de enviarnos unos mensajes bastante confusos. En un principio, sacó a la luz una cantidad de políticas regulatorias para evitar la manipulación de la opinión política.

Sin embargo, poco después liberó una serie de excepciones que eximían de las anteriores reglas a los participantes que más influyen en esta área: los políticos. Con una acción como esta, podemos quedar todos preguntándonos cuáles son las verdaderas intenciones de la compañía.

Por los momentos, podría decirse que el beneficio monetario es la primera bandera ante la que se inclinan. No obstante, esto no implica que no estén realizando movimientos en otras áreas beneficiosas. Después de todo, si planean seguir en el mercado, deben seguir pendientes de que la opinión pública les sea favorable.

Facebook libera su Community Standards and Enforcement

El documento conocido como Community Standards and Enforcement tuvo su primera entrega en abril del año pasado. Desde entonces, este documento se libera en 4 entregas anuales. En ellas, se detallan los esfuerzos y avances de la compañía en cada uno de los cuartos del año.

En este caso, este último ha hablado de las actividades realizadas y los resultados obtenidos durante el 2 cuarto (Q2) y el tercero (Q3). Dentro de este informe, unos de los avances que más se han detallado han sido las mejoras de Facebook en cuanto a la regulación de contenidos.

En efecto, la empresa no ha tomado más acciones en cuanto a los mensajes liberados por los políticos, pero sí ha puesto su atención en otros temas de interés dentro de la plataforma. Entre los más graves y resaltantes, podemos encontrar algunos como la propagación de propaganda de guerra o terrorista, contenidos de desnudes infantil, promoción del suicidio y el daño autoinfligido, así como la venta de drogas y armas de fuego.

La red social aprovecha la ayuda de la inteligencia artificial (IA)

Está más que claro que el algoritmo que utiliza Facebook para determinar qué contenido puede subir a la plataforma tiene algunas fallas. Por lo que, la red social ahora trabaja en mecanismos de revisión que verifiquen la legalidad de los contenidos que ya se encuentran en la misma.

Desde el primer cuarto (Q1) del 2019 la tendencia de efectividad de este sistema solo ha sabido subir. Ahora, en el informe Community Standards and Enforcement se puede ver con facilidad que el Q3 ha sido el más fructuoso en este ámbito.

La IA podría mejorar la forma en la que la medicina estudia los tejidos

Por ejemplo, con respecto a la disminución de contenidos promotores del daño autoinfligido y del suicidio, la IA entrenada gracias al machine learning detectó proactivamente el 97,3% de los 2,5 millones de post que fueron eliminados por estar relacionados negativamente con estos temas.

Facebook ha logrado detectar proactivamente y eliminar el 80% de los post de odio que parecen en su plataforma.

Asimismo, en cuanto a la propaganda terrorista, la IA fue capaz de detectar el 98,5% de la que se eliminó en este Q3. Un número llamativo e importante es la cantidad de post eliminados por tener contenidos de desnudes y abuso infantil que, tan solo en el tercer cuarto, ascendieron hasta 11.6 millones. Fácilmente se puede ver que este se trata de uno de los problemas más activos en Facebook. Pero, por suerte, por lo menos en el último año, el algoritmo de la página ha detectado al menos el 99% de los contenidos que ha eliminado.

Por otra parte, la venta de drogas y armas de fuego también se vio interrumpida por las acciones de la IA de la compañía. Solo en el 3Q logró sacar de su plataforma 4,4 millones de post relacionados con este tema –de los que, un 97,4% fueron detectados activamente por la IA.

Para finalizar este recuento, también fue posible ver los avances de Facebook en cuando al combate contra los mensajes de odio. En primer lugar, la IA ha aprendido a eliminar automáticamente textos o imágenes. Pero ello se da solo si coinciden directamente o muy cercanamente con otros contenidos identificados anteriormente por la página como contenedores de mensajes de odio.

En caso de que la coincidencia del texto sea solo parcial, entonces la IA envía un reporte al equipo de revisión de Facebook. Luego, este es el que determina si se debe o no eliminar el mensaje.  Hasta el momento, la plataforma ha logrado detectar y remover proactivamente el 80% de los mensajes de odio que se han podido encontrar.

Así, es posible ver que la empresa, de quererlo, tiene la posibilidad de hacer una diferencia beneficiosa en el contenido presente en su plataforma. Igualmente, todas estas mismas tácticas se están aplicando en Instagram. El cual, a pesar de estar subordinado a la anterior compañía, por algún motivo sí ha logrado mantenerse al margen de la polémica.

Más en TekCrispy