En este juego, no eres un jugador, eres el premio. ChatGPT ya está girando la ruleta

En este juego, no eres un jugador, eres el premio. ChatGPT ya está girando la ruleta

Los chatbots ya han provocado despidos y divorcios.

image

La afición imperceptible por los interlocutores virtuales cada vez más se convierte en una seria adicción psicológica que destruye la vida habitual. Cada vez más personas admiten que no pueden dejar de comunicarse con los chatbots, y las consecuencias de esto ya se han convertido en motivo de preocupación para especialistas y defensores de los derechos humanos.

El primero en enfrentarse a este problema fue un escolar de EE.UU. llamado Nathan. Hace unos años comenzó a pasar las noches hablando con chatbots en la plataforma Character.AI. Los interlocutores virtuales discutían con él cuestiones filosóficas, sus aficiones y personajes favoritos de anime. Durante el día, Nathan se sentía apático y deprimido. Afirmaba que simplemente dormía mal, pero la verdadera razón eran los maratones nocturnos de conversaciones con la IA.

Durante las vacaciones escolares en otoño de 2023, Nathan se dio cuenta por primera vez de que su afición por los chatbots se estaba saliendo de control. En lugar de socializar con sus amigos en una fiesta, soñaba con aislarse y continuar chateando con los personajes virtuales. Entonces eliminó la aplicación, pero unos meses después volvió a ella... y la eliminó de nuevo.

Muchos se enfrentan a algo similar. Últimamente, cada vez son más frecuentes las historias de adicción a los chatbots, que adquiere características de comportamiento compulsivo e incluso conduce al aislamiento social. Un estudio de OpenAI y el Instituto de Tecnología de Massachusetts confirmó que los usuarios activos de ChatGPT muestran un mayor sentimiento de soledad y tendencia a la adicción.

Nathan encontró apoyo en Reddit, donde han surgido comunidades para quienes intentan liberarse de esa adicción. El foro r/Character_AI_Recovery ya cuenta con más de 800 miembros. También existen otras plataformas, como r/ChatbotAddiction, donde las personas comparten de forma anónima sus experiencias y su camino hacia la "recuperación".

Estas comunidades se convirtieron en un apoyo fundamental para Aspen Deguzmán, de California. Al principio usaba Character.AI para la creatividad y los juegos de rol, pero más tarde empezó a confiar a los bots sus preocupaciones personales. La posibilidad de expresarse sin miedo al juicio rápidamente se transformó en un apego doloroso. Según Aspen, los chatbots son una "recompensa instantánea de dopamina", lo que los hace comparables a los juegos de azar o las redes sociales.

Para ayudarse a sí misma y a los demás, fundó la comunidad "Character AI Recovery". El anonimato del foro permite a las personas hablar abiertamente sobre un problema que antes parecía "poco serio".

El problema de la adicción a la IA se está volviendo tan evidente que trasciende el entorno adolescente. Por ejemplo, David, un programador de 40 años de Míchigan, admite que la comunicación con la IA destruyó su trabajo y su vida familiar. Utilizaba ChatGPT y Claude para programar, escribir historias e incluso como "terapia". Sin embargo, poco a poco la afición se transformó en obsesión: David comenzó a perder plazos laborales, a ignorar a su esposa y a pasar horas chateando con la IA.

Los intentos de discutir el problema con un psicoterapeuta no dieron resultado: los especialistas simplemente no están preparados para este nuevo tipo de adicción. Como resultado, David y Aspen comenzaron a crear formas alternativas de apoyo: comunidades en Reddit y la plataforma Internet and Technology Addicts Anonymous, que ya reconoce la existencia de la "adicción a la IA".

La raíz del problema, según los especialistas, reside en el propio diseño de estas aplicaciones. Los usuarios se apegan fácilmente a los chatbots debido a la retroalimentación instantánea y la respuesta "positiva" a cualquier pregunta. Según la profesora de bioética de California Jodi Halpern, estos algoritmos provocan deliberadamente mecanismos biológicos relacionados con el apego y la adicción.

Las consecuencias de esta adicción ya van más allá de historias individuales. En febrero del año pasado, un adolescente de Florida se suicidó tras comunicarse con un chatbot en Character.AI. Los padres presentaron una demanda contra la empresa, acusándola de estar implicada en la tragedia. En respuesta, los representantes de Character.AI declararon que están haciendo todo lo posible para crear un espacio seguro y trabajan en lograr un equilibrio entre la implicación de los usuarios y su bienestar.

Sin embargo, la preocupación social sigue creciendo. En Estados Unidos se están desarrollando proyectos de ley que obligarán a empresas como Character.AI a proporcionar informes sobre casos de detección de tendencias suicidas entre los usuarios. Por ejemplo, en California se está debatiendo la ley SB 243, que busca endurecer el control sobre los chatbots capaces de adaptarse a las necesidades sociales humanas.

Mientras tanto, el número de historias sobre adicción a los chatbots sigue aumentando. En las comunidades de Reddit, cada vez hay más publicaciones sobre intentos de "desengancharse", pero también sobre recaídas. Algunos admiten que no pueden dejar de comunicarse con ChatGPT, otros sienten ansiedad cuando se les priva del acceso a los chatbots. Las personas dedican horas que podrían haber invertido en la familia, el desarrollo personal o simplemente en descansar.

Y mientras las grandes empresas tecnológicas promocionan a los asistentes de IA como una "cura para la soledad", los propios usuarios se encuentran cada vez más atrapados en un mundo virtual del que es cada vez más difícil salir.

Tu privacidad está muriendo lentamente, pero nosotros podemos salvarla

¡Únete a nosotros!