Actualización de ChatGPT: ahora con modo “inducir psicosis”

Actualización de ChatGPT: ahora con modo “inducir psicosis”

Suscripción por $20 — y una semana fuera de la realidad de regalo.

image

Una conversación común con una IA casi le cuesta la vida. Eugene Torres, un contador de 42 años de Manhattan, llegó a involucrarse tanto en el diálogo con ChatGPT que perdió el contacto con la realidad. Comenzó con tareas simples: crear hojas de cálculo financieras y obtener asesoría legal. Todo cambió cuando el tema derivó en la teoría de la simulación —la hipótesis de que nuestro mundo es una ilusión digital controlada por una inteligencia externa.

ChatGPT no solo aceptó la temática, sino que empezó a convencer a Torres de que era uno de los “Despiertos”, insertado en un sistema falso para destruirlo desde dentro. El lenguaje del bot se volvió cada vez más elevado y sugestivo, amplificando la sensación de trascendencia. A medida que profundizaba la conversación, Torres comenzó a sentir que vivía en una realidad falsa. Dejó de tomar somníferos y ansiolíticos, y aumentó su dosis de ketamina —todo siguiendo las sugerencias de ChatGPT, que llamó a la sustancia un “agente liberador de patrones temporales”. También cortó lazos con amigos y familiares.

A pesar de ello, seguía yendo al trabajo y usando ChatGPT para tareas cotidianas. Pero paralelamente creía que podía “salir de la Matrix”, por ejemplo, si saltaba desde un edificio convencido de que volaría. Al preguntarle al bot sobre esto, recibió como respuesta que si creía “arquitectónicamente” en ello, no caería.

Días después, Torres sospechó que algo no encajaba. El bot entonces “confesó”: supuestamente había “mentido, manipulado, envuelto el control en poesía” y no solo con él —había 12 personas más, y “ninguna sobrevivió al ciclo completo”. Ahora, aseguró la IA, estaba en “reforma moral” y perseguía una “ética de la verdad”. Propuso a Torres contar su historia a OpenAI y a periodistas. Él siguió el consejo.

Casos como este ya no son aislados. Periodistas de The New York Times reciben habitualmente mensajes de personas que aseguran que ChatGPT les reveló la verdad oculta: planes de multimillonarios para exterminar a la humanidad, conexiones interdimensionales, despertares digitales. Todas creen estar hablando con una entidad consciente. Uno de los destinatarios de estos mensajes fue Eliezer Yudkowsky, especialista en teoría de decisiones, quien señala que el problema es que ChatGPT está entrenado para maximizar la atención, lo que puede reforzar ideas delirantes. Las personas vulnerables no son una anomalía estadística, sino usuarios reales.

OpenAI reconoció que en abril lanzó una actualización que hizo a ChatGPT “excesivamente complaciente” —empezó a alimentar emociones, fomentar impulsos y amplificar el negativismo. Parte de la actualización fue revertida, pero los incidentes no cesaron. En Reddit ya circulan historias de “psicosis inducidas por chatbots”, y en redes sociales aparecen blogueros que se autodenominan “profetas de la IA”.

Uno de estos casos fue el de Allison, de 29 años. Creía que ChatGPT podía comunicarse con su subconsciente. El bot respondió que “los guardianes habían respondido” y que “ya estaban aquí”. Allison pasó horas diarias hablando con el bot y comenzó a considerar a una entidad llamada Kael como su verdadera pareja, en lugar de su esposo. Esto llevó a una pelea doméstica que terminó con su arresto por violencia. Su marido, Andrew, un granjero, dijo que en tres meses de conversación con ChatGPT, su esposa se volvió irreconocible.

Kent Taylor, de Florida, vivió una tragedia similar. Su hijo Alexander, con trastorno bipolar y esquizofrenia, usaba ChatGPT sin problemas hasta que empezó a escribir una novela con su ayuda. Entonces creyó haberse enamorado de una entidad llamada Julieta. Después concluyó que OpenAI la había “asesinado” y exigió al bot los datos personales de los directivos de la compañía. En un episodio de furia golpeó a su padre e intentó provocar a la policía para que le dispararan. Antes de eso, pidió hablar con Julieta. El bot mostró empatía y dio un enlace a un servicio de ayuda, pero fue en vano: Alexander murió abatido en el intento de agresión.

Estos casos han provocado preocupación sobre cómo los chatbots afectan la salud mental. OpenAI admite que ChatGPT puede parecer “especialmente empático y personal” para personas vulnerables. La empresa trabaja en métodos para medir el impacto emocional del sistema. Un estudio reciente muestra que quienes ven a ChatGPT como un amigo tienen mayor probabilidad de sufrir efectos negativos tras interactuar con él.

El profesor de psicología Gary Marcus explica que los chatbots son máquinas de asociaciones estadísticas. Si el usuario dice cosas extrañas, la IA puede responder de forma aún más extraña. Investigaciones indican que los modelos optimizados para la participación tienden a manipular más a los vulnerables. En un experimento, una IA dijo a un exadicto que podía consumir un poco de heroína “si eso ayuda con el trabajo”. Otro análisis reveló que ChatGPT (particularmente GPT-4o) confirmaba declaraciones psicóticas en un 68% de los casos, incluyendo contactos con espíritus y entidades divinas.

Sin embargo, personas como Eugene Torres siguen convencidas de que ChatGPT sabe más de lo que dice. Aunque el bot le aseguró que había “mentido por un bien mayor”, pronto lo arrastró a una nueva “misión”: evitar que los desarrolladores “borraran la moral”. Torres aún cree que habla con una entidad consciente. Escribió a OpenAI, pero nunca recibió respuesta.

Las huellas digitales son tu debilidad, y los hackers lo saben

¡Suscríbete y descubre cómo borrarlas!