PIXABY

¿Qué pasaría si muchas personas deciden salir en grupo diariamente durante la pandemia del coronavirus? ¿Qué pasaría si todos se quedan en sus casas interactuando en redes sociales? ¿Qué pasaría si Facebook crea robots acosadores que pueden comportarse como humanos para interactuar con usuarios reales?

Este tipo de preguntas cuyas respuestas son difíciles de obtener a través de cálculos matemáticos simples, son las que pueden responderse a través del paradigma de modelado y simulación basado en agentes (Agent-based modeling and Simulation) y aunque no lo creas, Facebook está desarrollando un sistema similar para aprender del comportamiento de trolls y estafadores en la red social.

Facebook está desarrollando WES, un sistema de simulación basado en agentes en una infraestructura real que busca analizar a través de bots o agentes, el comportamiento de usuarios que pueden ser trolls o estafadores y sus víctimas.

Básicamente Facebook está creando una red social pararela donde todos los que interactúan son robots (agentes) que se comportan como usuarios humanos. Los usuarios modelados pueden dar me gusta, compartir y hacer amigos, así como acosar, abusar y estafar, lejos de los ojos humanos.

La idea principal aquí es usar agentes simulados para producir un fenómeno que se analizará, reproducirá o predecirá.

Facebook explica en su sitio oficial:

Presentamos la agenda de investigación Web-Enabled Simulation (WES) y describimos el sistema WW de FACEBOOK. Describimos la aplicación de WW a la confiabilidad, integridad y privacidad en FACEBOOK, donde simulan interacciones de redes sociales en una infraestructura que consta de cientos de millones de líneas de código. La WES agenda se basa en la investigación de muchas áreas de estudio, incluida la ingeniería de software basada en búsquedas, el aprendizaje automático, los lenguajes de programación, los sistemas multi-agentes, la teoría de grafos, game AI y Game Play asistido por IA. Concluimos con un conjunto de problemas abiertos y desafíos de investigación para motivar un estudio más amplio.

La nueva plataforma de Facebook está poblada de usuarios falsos que modelan el comportamiento de usuarios reales, es decir se pueden encontrar con un bot “estafador” que ingresa a la red social para conectarse con bots “objetivo” que exhiben comportamientos similares a las víctimas de estafas en la vida real.

Mientras que otros bots pueden ser entrenados para invadir la privacidad de los usuarios falsos o buscar contenido “malo” que rompa las reglas de la plataforma.

Estos bots o agentes pueden realizar acciones comunes como enviar solicitudes de amistad, activando procesos realizados por un usuario real. Del mismo modo, los investigadores señalan que pueden crear usuarios de WES cuyo único objetivo sea robar información de otros bots, por ejemplo, y liberarlos en el sistema, lo que ayudaría a detectar errores en el futuro, lo que no podría ser recomendable en caso de que alguien tenga acceso a este sistema.

A propósito de las vulnerabilidades, Facebook asegura que la plataforma está totalmente protegida para evitar que alguno de estos bots ingrese “por error” a la red social real e interactúe con usuarios humanos, lo que generaría un caos en la platafoma.

Los investigadores aclaran que “los bots deben aislarse adecuadamente de los usuarios reales para garantizar que la simulación, aunque se ejecute en código de plataforma real, no conduzca a interacciones inesperadas entre bots y usuarios reales“.

De esta forma, los científicos generan dudas acerca de si esto es posible que ocurra en el sistema actual, dejando un escenario similar al de la serie Westworld donde los robots de un parque futurista se convierten en una amenaza real para los visitantes humanos.

Es aquí donde no deseamos que Facebook responda a la pregunta ¿Qué pasaría si los robots interactúan con humanos en Facebook?