Facebook no solo utiliza la inteligencia artificial y el aprendizaje automático para luchar contra las noticias falsas, sino también para luchar contra la explotación de niños en la red social.

Antigone Davis, director global de seguridad en Facebook, describió en el blog de la sala de prensa el proceso que están empleando para evitar la propagación del contenido que explote sexualmente a menores de edad.

Davis comienza por resaltar que desde hace años atrás, la compañía utiliza tecnología de emparejamiento fotográfico para evitar que las personas compartan imágenes conocidas de explotación de niños.

Esta vez han añadido la inteligencia artificial y el aprendizaje automático para detectar desnudos infantiles y otro tipo de contenido que denote explotación de menores para así reportarlo con el Centro Nacional de Niños Extraviados y Explotados –NCMEC, por sus siglas en inglés–, y también para hallar cuentas que se comprometan en ese tipo de comportamientos, como interactuar de manera inapropiada con menores.

De acuerdo con las cifras suministradas por Davis, bajo esta estrategia, Facebook logró eliminar 8.7 millones de piezas de contenido que violaba las políticas referentes a la explotación de menores –la cual también elimina fotografías de niños en baños–, durante el último trimestre del año. La compañía expresa que gracias a la aplicación de esta tecnología, “99% del contenido se eliminó incluso antes de que alguien lo reportara”.

El paso a paso de la protección de menores en Facebook

Según una infografía compartida por Facebook, la compañía explica de manera sencilla cómo han estado lidiando con la protección de menores, primero al prohibir a todo menor de 13 años de tener una cuenta en la red social sin el consentimiento de sus padres, además de tener una configuración de privacidad diferente para adolescentes entre 13 y 18 años.

El segundo paso es el uso de la tecnología y sistemas que permitan identificar patrones inusuales que vayan contra las políticas de la compañía. Luego, en caso de detectar un comportamiento extraño, Facebook lo reporta ante el NCMEC y el contenido reportado como explícito sexualmente es añadido a un banco de imágenes de este estilo que luego se remueve automáticamente.

A pesar de que Facebook quiera demostrar que está trabajando por la defensa de los menores en su red social, la verdad es que ha tenido bastantes problemas con este asunto, los cuales le han provocado hasta demandas colectivas por la falta de seguridad para menores de edad.

Más en TekCrispy