Instagram no brinda una solución efectiva para proteger a los usuarios de las publicaciones de autolesiones y contenido suicida.

Según menciona la fuente, Adam Mosseri Jefe de Instagram ha admitido el día de hoy que la red social propiedad de Facebook aún se encuentra trabajando en eliminar o bloquear aquellas publicaciones que atentan contra el bienestar de los adolescentes.

¿Instagram promueve las autolesiones?

En el 2017, Molly de 14 años tomó una decisión lamentable, y es que la pequeña se suicidó debido a según Ian Russell padre de la menor, Instagram fomentó esta situación.

No tengo ninguna duda de que Instagram ayudó a matar a mi hija.

El padre relata que tras la muerte de Molly, la familia se dio la tarea de analizar las cuentas de las redes sociales que tenía la pequeña, encontrando cualquier tipo de contenido relacionado con la depresión y las autolesiones.

Publicaciones suicidas

Esta historia de Molly conmovió a Mosseri por lo que impulsó una compañía para analizar a fondo como Instagram maneja los contenidos de autolesión, a fin de evaluar dos si las declaraciones brindadas por el sr.Russell son ciertas y, este contenido de autolesión y suicidio sigue estando presente en la red social.

Aún falta mucho por hacer

Mosseri explica que en la actualidad la plataforma prohíbe los mensajes que promueven autolesiones o suicidios, pero que esta exclusión se realiza de manera manual y gracias a todos los usuarios que marcan alguna publicación como ofensiva, ya que no cuentan con un sistema automatizado que realice este proceso.

Dependemos en gran medida de nuestra comunidad para que informe de este contenido y lo elimine tan pronto como lo encuentre.

En este sentido, Mosseri menciona que la compañía se esfuerza por detectar y vigilar de manera independiente este tipo de contenido, sin embargo, hasta ahora no han podido evitar que las imágenes se esparzan por la red social sin que antes, otras personas tengan acceso a ellas.

La conclusión es que aún no encontramos suficientes imágenes antes de que otras personas las vean.

Medidas futuras

La compañía menciona que una de las medidas a tomar, será la de crear ‘pantallas de sensibilidad’, las cuales alertarán a los usuarios sobre el contenido que están a punto de ver. Unos mensajes a los que podrán acceder una vez confirmen que quieren ver realmente esos mensajes.

Christchurch: otra marca negra en el historial de las redes sociales

Finalmente, la compañía destaca que se encuentra invirtiendo en tecnología que permita identificar y hacer menos invisibles estas imágenes ofensivas antes de que las mismas lleguen a sus seguidores.

Más en TekCrispy