La guerra de la información se ha hecho cada vez más presente en el día a día. Desde las elecciones presidenciales estadounidenses en 2016, los bots han emergido en la palestra informativa por el daño que causan a nivel comunicacional.

Y es que lo más sorprendente de todo es que siguen causando estragos –en todos los niveles, no solo político– por su actualización constante, blindándose cada vez más contra detectores y expertos para cumplir con su misión de desinformar. Son, de hecho, más inteligentes de lo que pensamos.

Los bots actuales cumplen con una serie de características y técnicas que hacen cada vez más difícil de frenar la desinformación, como difundir información directamente proveniente de influencers que normalmente tienen una baja credibilidad o aprovechar los primeros segundos de publicación de una nota falsa para hacer la viral antes de verificarse.

Un ejército rápido

Los bots actuales actúan sumamente rápido en lo que respecta a difundir información, fijándose principalmente en cuentas y medios con baja credibilidad. Así se ha reflejado en el estudio ‘The spread of low-credibility content by social bots’ –realizado por la Universidad de Indiana–, en el que los autores analizan las tácticas de estas cuentas manejadas por software para evaluar las estrategias para frenar sus efectos.

En este sentido, los investigadores determinaron que dada la relevancia de los bots en la desinformación, una estrategia para mitigar sus efectos sería efectiva para detener la divulgación de la desinformación.

Buenos estrategas

Para la fecha, estos bots han sido entrenados tan eficientemente que son capaces de desarrollar estrategias muy eficientes para la divulgación de noticias falsas. La gran característica que les ha permitido expandirse en los medios sociales ha sido precisamente su capacidad de relacionarse como personas comunes y corrientes.

Whatsapp premiará con un millón de dólares a equipos que busquen cómo combatir noticias falsas

De acuerdo con un estudio publicado en la revista Proceedings of the National Academy of Sciences (PNAS), estos bots también se inclinan hacia la difusión de contenido generado por humanos, pues estos incrementan la polarización con respecto a un tema. En el caso de la investigación, los autores estudiaron el caso del Referéndum Catalán, en el que se utilizaron bots para propagar mensajes violentos en contra de los independentistas, exacerbando el conflicto social en línea.

Actuar como humanos entre humanos

Según un reporte de Data & Society, los bots deben imitar el comportamiento humano en redes sociales, de la manera más acertada posible. Esto quiere decir que en sus mensajes utilizan también fotografías, cantidad de seguidores y comentarios, para evitar que tanto expertos como plataformas sean descubiertos.

Estamos ante una época bastante difícil en el ámbito informativo y solo queda prepararse para detectar y mitigar este tipo de tácticas. Desafortunadamente, los bots son apenas una parte minúscula de lo que debemos enfrentar en la guerra por la información. También hemos hablado sobre la creación de los deepfakes y cómo podrían poner en peligro las elecciones de Estados Unidos en 2020. Tal vez no sea demasiado tarde para haberlos combatido.

Más en TekCrispy