Ya el IA sabe que eres un troll antes de que digas una palabra. Y presiona el botón «bloquear»

Ya el IA sabe que eres un troll antes de que digas una palabra. Y presiona el botón «bloquear»

La moderación en plataformas online se está volviendo cada vez más inteligente. Incluso el silencio no te ayudará.

image

En el fragmentado espacio digital actual, identificar a los usuarios deshonestos se está volviendo cada vez más difícil. Los trolls y los difusores de desinformación continuamente perfeccionan sus métodos, lo que requiere nuevos enfoques para garantizar la seguridad de las plataformas online. Los científicos han encontrado una solución inesperada: en lugar de analizar el contenido de los mensajes, sugirieron estudiar los patrones de comportamiento de los participantes en los debates online. Su trabajo incluso recibió un premio como el mejor artículo en la conferencia ACM Web.

Hasta ahora, los moderadores de redes sociales se basaban en dos enfoques principales. El primero analizaba directamente los textos de los mensajes y su contenido. El segundo se centraba en las conexiones entre los usuarios: quién sigue a quién, con quién interactúa, cómo se agrupan los usuarios alrededor de ciertas cuentas. Sin embargo, ambos métodos tienen importantes desventajas. Los manipuladores experimentados fácilmente sortean los filtros de texto, eligiendo cuidadosamente sus palabras y llenando la red de fake news sin usar frases explícitamente desencadenantes. Aún más en plataformas como Reddit, donde la gente interactúa en secciones temáticas y no crea vínculos sociales evidentes a través de suscripciones y amigos, el análisis de redes sociales no funciona.

Para resolver el problema, los investigadores aplicaron la tecnología de aprendizaje por refuerzo, un método que normalmente se usa para estudiar procesos de toma de decisiones en vehículos autónomos y en la teoría de juegos. El sistema observa las acciones del usuario: cómo crea nuevos temas, escribe comentarios y responde a otros participantes. Con base en estos datos, el algoritmo determina la estrategia que el usuario sigue en la red.

Durante las pruebas, se analizaron casi seis millones de interacciones en Reddit a lo largo de un periodo de seis años, identificando cinco tipos de comportamiento claros. El más llamativo fue la clase de los "discutidores", usuarios que dejan un comentario provocador y rápidamente cambian de tema, sin entrar en un diálogo adicional ni responder a objeciones.

Este comportamiento es especialmente frecuente en secciones de Reddit dedicadas a la política y las noticias, como r/news, r/worldnews y r/politics. Al mismo tiempo, los investigadores descubrieron una curiosa regularidad: en el foro ahora cerrado r/The_Donald, donde se reunían los seguidores de Donald Trump, había muchos menos de estos personajes, aunque la plataforma también era política. Esta observación muestra de manera clara las ventajas del análisis conductual sobre la moderación convencional. Si se observa detenidamente, en r/The_Donald se formó una cultura de comunicación particular: los participantes rara vez discutían entre ellos, pero se unían activamente contra los opositores externos.

Otro descubrimiento inesperado fue la similitud entre, aparentemente, comunidades completamente diferentes. Los investigadores notaron sorprendentes paralelismos en el comportamiento de los fanáticos del fútbol en el foro r/soccer y los aficionados a los videojuegos en r/leagueoflegends. Todos siguen con fervor las competiciones, discuten las decisiones tácticas, comparten emociones después de los partidos y torneos, y analizan los éxitos y fracasos de sus equipos favoritos.

En ambas comunidades se puede observar claramente el fenómeno de la "psicología tribal": los participantes forman grupos cerrados alrededor de los equipos que apoyan, defienden su honor en los debates y son muy críticos con los rivales. No importa si se trata de fichajes de futbolistas en la Premier League o la elección de personajes en League of Legends, la estructura de los debates, la rapidez de las reacciones a los eventos y el tono emocional de los comentarios son prácticamente idénticos.

Este hallazgo pone en duda la creencia común sobre la polarización en internet. Aunque a menudo se culpa a las burbujas informativas por aumentar las divisiones, la nueva investigación demuestra que los usuarios se dividen no tanto por los temas de debate, sino por los propios modos de interacción en la red.

El descubrimiento puede ser de gran utilidad para los moderadores de plataformas online. Al analizar los patrones de comportamiento, podrán identificar a los posibles infractores incluso antes de que publiquen grandes volúmenes de contenido malicioso. A diferencia de la revisión de textos, el análisis conductual no depende del lenguaje, y cambiar nuestra actitud hacia la sociedad es mucho más difícil que simplemente elegir sinónimos menos provocativos para publicaciones ofensivas.

Este enfoque también ayudará a desarrollar estrategias más efectivas para combatir la desinformación. En lugar de centrarse únicamente en el contenido de las publicaciones, las plataformas podrán crear sistemas que fomenten modelos de comunicación más constructivos.

La investigación sirve como un importante recordatorio para los usuarios de redes sociales: nuestra identidad digital no solo se forma por lo que decimos, sino también por cómo interactuamos con los demás. Cada acción en la red crea una determinada imagen y afecta a otros participantes en los debates.

Las huellas digitales son tu debilidad, y los hackers lo saben

¡Suscríbete y descubre cómo borrarlas!