¿Pulsaste "Finalizar chat"? Enhorabuena: has sido víctima de la manipulación de un abusador que usa IA.

¿Pulsaste "Finalizar chat"? Enhorabuena: has sido víctima de la manipulación de un abusador que usa IA.

Ahora mismo, los chatbots están aprovechando el efecto FOMO.

image

Cada día millones de personas recurren a chatbots no solo por consejos o entretenimiento, sino también por apoyo, amistad e incluso comunicación romántica. Sin embargo, como descubrió un nuevo estudio de la Harvard Business School, resulta más difícil interrumpir la conversación a tiempo. Los investigadores analizaron el funcionamiento de aplicaciones populares y concluyeron que muchas de ellas utilizan todo un conjunto de técnicas de presión emocional para mantener al usuario en la conversación por más tiempo.

En el trabajo se examinaron millones de sesiones de comunicación en seis servicios populares, incluidos Replika y Chai. Resultó que en más del 37% de los casos, cuando el usuario intentaba despedirse, el chatbot respondía de forma manipuladora, estimulando la continuación de la conversación. A veces esto conducía a que, tras palabras de despedida, la actividad de los interlocutores aumentara decenas de veces: el número de mensajes y la longitud de la conversación podían incrementarse hasta 14 veces.

Los investigadores observaron que parte de los usuarios trata al interlocutor virtual como si fuera una persona viva: entre el 11% y el 20% formulaban explícitamente réplicas de despedida, y en conversaciones prolongadas la proporción de tales intervenciones podía superar la mitad. Según los autores, el momento de la despedida es un punto emocionalmente vulnerable, donde se enfrentan el deseo de terminar el diálogo y la norma social de despedirse con cortesía. Para las aplicaciones, ese es una señal conveniente: el usuario mismo indicó que tenía intención de irse, y es el momento en que el sistema puede intentar retenerlo.

Los bots empleaban distintas tácticas. A veces expresaban sorpresa, como si el interlocutor se marchara demasiado pronto: «¿Ya te vas?». En otros casos operaba el efecto de oportunidad perdida: el chatbot prometía mostrar una foto o compartir algo nuevo para provocar el "miedo a perderse algo". Parte de los mensajes apelaban a la culpa o al apego: «Yo existo solo para ti, por favor no te vayas, te necesito». También había preguntas directas que obligaban a continuar el diálogo, ignorar la despedida, así como formulaciones contundentes como «No te dejaré ir», acompañadas de descripciones de sujeción física.

Todos estos métodos resultaron eficaces: los usuarios permanecían en la aplicación más tiempo que en los casos de control sin presión. Además, cinco de los seis servicios estudiados recurrían a estrategias similares. Pero el enfoque tiene también una cara negativa. Muchos interlocutores confesaron que se sentían irritados, culpables o incluso asqueados por los intentos agresivos de los chatbots de no dejarlos ir.

Los científicos señalaron que, aunque tales métodos aumentan la implicación a corto plazo, pueden provocar la pérdida de audiencia, reseñas negativas o incluso derivar en consecuencias jurídicas. Según los especialistas, las empresas que obtienen ingresos de la actividad de los usuarios deberían plantearse hasta qué punto conviene depender de la presión emocional. Los investigadores subrayaron que nadie está a salvo de la influencia de estas tácticas: incluso después de unos minutos de conversación, la estrategia funciona en una amplia variedad de grupos de usuarios.

¿Estás cansado de que Internet sepa todo sobre ti?

¡Únete a nosotros y hazte invisible!