Hasta ahora, las plataformas de redes sociales han decidido qué tipo de contenido se publica, cuál es baneado y cómo se manejan los discursos de odio. Sin embargo, para lidiar adecuadamente con los conflictos en línea, necesitamos saber también la opinión de los usuarios: ¿Cómo resolverían ellos el problema de la información falsa? ¿Qué tipo de libertades ofrecerían y a quiénes?
Muchos piensan que todo sería mejor si las personas estuvieran a cargo de la moderación de contenido, así que, para demostrarlo, los científicos de varias universidades llevaron a cabo un estudio.
En este documento se examinó cómo un usuario promedio enfrentaría tales dilemas morales, con la esperanza de determinar si alguno podría resolver finalmente el tema de la libertad de expresión en línea. Pero, irónicamente, descubrieron que la mayoría de los encuestados también tomarían medidas erróneas para controlar el contenido.
¿Cómo manejarían los usuarios la moderación de contenido?
Los investigadores entrevistaron a más de 2.500 personas en Estados Unidos, en su mayoría, usuarios de Twitter, Facebook e Instagram.

Cuando se les preguntó si eliminarían las publicaciones que difunden información errónea sobre las elecciones, las vacunas, el Holocausto y el cambio climático, solo el 33 % optó por la opción más acertada: «emitir una advertencia».
En promedio, el 66 % de los encuestados dijo que eliminaría las publicaciones infractoras. Aunque no toda la información errónea fue penalizada por igual: la negación del cambio climático fue la que menos sanciones recibió (58 %), mientras que la negación del Holocausto (71 %) y la negación de las elecciones (69 %) fueron las que más actuaron, seguidas por el contenido contra la vacunación (66 %).
Por lo tanto, los llamados “absolutistas de la libertad de expresión”, no existen. Los usuarios sí entienden que debería haber límites para la libertad de expresión que puede causar daño.
Sin embargo, las medidas que tomaron para moderar ese contenido no fueron diferentes a las que actualmente toman las plataformas de redes sociales.
Además, el 45 % de los encuestados comentó que suspenderían indefinidamente o temporalmente las cuentas que difunden información errónea. Una medida extrema que fue muy criticada en 2021, después de que Facebook y Twitter suspendieron las cuentas del antiguo presidente de los Estados Unidos, Donald Trump.
Usuario vs. redes sociales: ¿Cuál es el mejor árbitro?

Las discusiones sobre la moderación de contenido en línea son intensas, pero esto se debe a que no se sustentan en evidencia empírica. Este estudio ofrece finalmente algunas respuestas con respecto a quién debería gestionar la moderación de contenido en línea.
Guiándonos por los resultados, tanto los usuarios como las plataformas de redes sociales toman las mismas decisiones en cuanto a la información falsa y los baneos. Por lo tanto, ninguno es mejor árbitro que otro.
¿Por qué seguimos el mismo patrón? El estudio también arroja luz sobre este asunto. Al parecer, existen varios factores que afectan las decisiones con respecto a la moderación de contenido en línea. Entre ellos:
- El tema, si es relevante o no
- Las consecuencias de la desinformación en torno a ese tema.
- O el tipo de mensaje, si se trataba de una ofensa o un simple comentario.
Los usuarios encuestados no estaban más inclinados a eliminar publicaciones de una cuenta con una postura política opuesta, ni tampoco a suspender cuentas que no coincidían con sus preferencias políticas. Sin embargo, eliminarían otro tipo de información que, según ellos, pondría en peligro la libertad de expresión.
Así que, todo parece indicar que los usuarios tampoco pueden resolver el dilema de la moderación de contenido en redes sociales.