Te han engañado: el 97% de las personas en Internet son normales, pero solo ves al 3% más ruidoso — los trolls.

Los usuarios, al entrar en redes sociales, suelen sacar la misma conclusión: «por todas partes hay toxicidad, por lo tanto casi la mitad de la gente se comporta así». Una nueva investigación muestra que esa impresión está fuertemente y sistemáticamente distorsionada: la gente ve mucho contenido dañino, pero lo atribuye erróneamente a un número enorme de usuarios, cuando en la práctica la mayor parte de ese tipo de mensajes la crea un grupo pequeño pero extremadamente activo.
Los autores realizaron tres estudios con la participación de 1 090 adultos y compararon las expectativas de los encuestados con los datos de las plataformas. En promedio, los participantes estimaron que el 43% de los usuarios de Reddit había escrito al menos una vez comentarios «altamente tóxicos», y que el 47% de los usuarios de Facebook había compartido noticias falsas. Las cifras reales, según los datos de las plataformas, eran muy distintas: el contenido tóxico en Reddit, según la metodología empleada en el estudio, fue publicado por alrededor del 3% de las cuentas activas, y las noticias falsas en Facebook fueron difundidas por aproximadamente el 8,5% de los usuarios.
Especialmente ilustrativa fue la diferencia entre «cuánta toxicidad» y «cuánta gente tóxica». Los investigadores señalan que las personas a menudo estiman el volumen de contenido dañino aproximadamente bien —que efectivamente se puede encontrar con frecuencia—, pero se equivocan al representar cuán extendido está ese comportamiento. En los datos de Reddit, una pequeña proporción de cuentas que publicaban comentarios tóxicos dejó, sin embargo, una huella muy visible: alrededor del 3,1% de las cuentas activas crearon un tercio de todo el contenido en la plataforma. Es decir, la «voz» de la minoría resulta tan fuerte que crea la ilusión de masividad.
La comprobación mostró que no se trata de que los participantes «no comprendan» qué se considera toxicidad. En la segunda parte del estudio se les mostraron ejemplos de comentarios y se les pidió adivinar cuáles de ellos un algoritmo clasificaría como tóxicos según el criterio empleado en el análisis original. En general, los participantes acertaron en la tarea, pero aun así casi todos volvieron a sobrestimar la proporción de cuentas «tóxicas», pensando que rondaba la mitad.
Este error de percepción, según mostró el tercer experimento, afecta no solo al estado de ánimo sino también a la sensación de «hacia dónde va la sociedad». Cuando a los participantes se les explicaron las cifras reales y el principio general de que las redes sociales muestran desproporcionadamente a los más ruidosos, experimentaron más emociones positivas y estuvieron menos de acuerdo con la idea de un declive moral. Además se mitigó otro problema: muchas personas subestiman hasta qué punto el contenido dañino resulta desagradable para los demás y empiezan a pensar que «a todo el mundo le gusta esto y es justamente lo que hay que promover».
En definitiva, la investigación describe una mecánica bastante sencilla pero importante: las redes sociales pueden minar la confianza social no solo por el propio contenido dañino, sino también porque este parece ser un comportamiento de «casi todo el mundo». Los autores consideran que las aclaraciones puntuales y una «vacuna» adecuada contra esta ilusión pueden atenuar el efecto y, posiblemente, ayudar a que las personas miren la realidad en línea con más claridad: una toxicidad ruidosa no siempre significa una mayoría tóxica.