Los multimillonarios recursos de OpenAI contra Kim Kardashian: el ChatGPT "tóxico" arruina su sueño de ser abogada

Los multimillonarios recursos de OpenAI contra Kim Kardashian: el ChatGPT "tóxico" arruina su sueño de ser abogada

Estudiantes suspenden exámenes de Derecho por culpa de un "amigo tóxico" en el teléfono.

image

Kim Kardashian admitió que fue ChatGPT la causa de sus fracasos en los exámenes de derecho. Lo contó en una entrevista para Vanity Fair de la serie «prueba del detector de mentiras», en la que participó junto a su compañera de la serie «All’s Fair», Teyana Taylor.

Según Kardashian, sí recurre a ChatGPT, pero no para pedir consejos sobre su vida personal o citas y no considera al chatbot un «amigo». Lo utiliza activamente para cuestiones legales, haciendo capturas de las tareas y cargándolas en el sistema. Sin embargo, los resultados no fueron alentadores: las respuestas de la inteligencia artificial con frecuencia estaban equivocadas. «Por eso suspendí un montón de exámenes. Luego me enojo y empiezo a gritarle», contó la actriz.

Admitió que a veces incluso discute con el chatbot, acusándolo de haberla dejado mal en los exámenes. Según Kardashian, ChatGPT se «justifica» y responde como si simplemente la ayudara a aprender a confiar en sus instintos. Al final, la estrella lo llama un 'amigo tóxico', de quien uno espera apoyo pero recibe una lección de desarrollo personal.

Kardashian añadió que regularmente hace capturas de pantalla de sus conversaciones con el bot y las comparte en un chat grupal, sorprendida de lo 'descarado' que es al hablar con ella. El operador del detector de mentiras corroboró que sus confesiones fueron sinceras.

La historia de Kardashian subraya una vez más el problema de la confianza en la inteligencia artificial. Los analistas de NewsGuard señalan que los chatbots modernos, incluido ChatGPT, cada vez más ofrecen información falsa. Según la investigación, en un año el número de esos casos se duplicó. La razón es que los modelos de lenguaje recurren con mayor frecuencia a fuentes poco fiables y reconocen mal la desinformación que se difunde mediante campañas en la red. NewsGuard registró el mayor número de errores fácticos en Inflection (56,67%) y Perplexity (46,67%), mientras que ChatGPT incurrió en distorsiones en el 40% de las respuestas.

El director de OpenAI, Sam Altman, reconoció anteriormente que los usuarios confían en exceso en el chatbot. Recordó que la inteligencia artificial es proclive a «alucinaciones» —la creación de invenciones inverosímiles pero convincentes—. Para reconocer esos errores, los especialistas aconsejan prestar atención a contradicciones internas, al detalle excesivo o, por el contrario, a la vaguedad en las formulaciones, así como a explicaciones estereotipadas o sesgadas de temas complejos.

No esperes a que los hackers te ataquen: ¡suscríbete a nuestro canal y conviértete en una fortaleza impenetrable!

Suscribirse