Tras el violento ataque terrorista ocurrido en Christchurch, Nueva Zelanda, donde varios hombres armados  causaron la muerte de 50 personas y donde Facebook jugó un papel importante al no detectar la transmisión violenta en vivo, la plataforma emitió un comunicado al respecto explicando por qué sus algoritmos no evitaron la transmisión.

El ataque terrorista de Christchurch, dio la vuelta al mundo en cuestión de minutos gracias a la difusión en las redes sociales, pues se conoció que uno de los atacantes llevaba un casco con su cámara para transmitir el atroz homicidio en vivo.

Esto generó que unas 200 personas lograran ver el video antes de que Facebook detectara que se trataba de un acto terrorista. Cabe destacar que la inteligencia artificial no detectó la presencia del video. Y se eliminó 30 minutos después –esto ocurrió después que uno de los espectadores reportó la transmisión.

Sin embargo, esto no evitó que el homicidio se difundiese en todas las redes sociales, pues el reciente reporte oficial de Facebook afirma que 4,000 personas lograron ver el video antes de que este fuese eliminado de la plataforma. Asimismo, varios usuarios grabaron y replicaron el mismo en sus perfiles, dando como resultado 1,5 millones de videos del tiroteo que luego la red social de Mark Zuckerberg tuvo la iniciativa de eliminar.

Chris Sonderby, vicepresidente de Facebook y consejero general adjunto señala en el blog que se eliminaron 1,2 millones de videos del ataque en el punto de carga, solo en las primeras 24 horas y posteriormente otras 300,000 copias.

¿Es Instagram el nuevo hogar de las teorías conspirativas?

En este sentido, un nuevo informe de Facebook dice en su defensa que ningún usuario había reportado el video del tiroteo, razón por la que no pudo detener la transmisión en vivo. Es aquí cuando entra en juego la inteligencia artificial y la deficiencia para la detección automática de videos violentos en la plataforma.

En este punto, un portavoz de Facebook explica:

Algunas variantes, como las grabaciones de pantalla, fueron más difíciles de detectar, por lo que nos expandimos a sistemas de detección adicionales, incluido el uso de tecnología de audio.

Asimismo, la inteligencia artificial aplicada en los algoritmos de Facebook dejó mucho que desear, confirmando que no es tan eficiente en estos casos.

Muchas personas han preguntado por qué la inteligencia artificial (AI) no detectó automáticamente el video del ataque de la semana pasada.

La inteligencia artificial ha logrado un progreso masivo a lo largo de los años y en muchas áreas, lo que nos ha permitido detectar de forma proactiva la gran mayoría del contenido que eliminamos. Pero no es perfecto.

Esto es una muestra del alcance que tiene Facebook a nivel mundial, y no es un secreto para nadie. Sin embargo, resulta bastante delicado pensar que una plataforma con tal cantidad de visitantes no pueda detectar un ataque violento en tiempo realm lo que deja una brecha bastante grande en torno a los usos y abusos de los usuarios. Sin mencionar el poco personal humano para hacer el monitoreo de los actos terroristas en Facebook.

Más en TekCrispy