La teoría de juegos se rompió: la IA reescribió las reglas de la confianza humana

La teoría de juegos se rompió: la IA reescribió las reglas de la confianza humana

ChatGPT destruyó lo más humano en nosotros — y lo dejamos pasar.

image

En medio de la rápida expansión de los grandes modelos lingüísticos, como ChatGPT, muchas empresas y usuarios delegan cada vez más en ellos la toma de decisiones en una amplia variedad de áreas: desde la redacción de textos hasta la participación en negociaciones e incluso decisiones que afectan a otras personas. Sin embargo, un estudio a gran escala con la participación de casi 3000 personas mostró que la presencia de IA en las interacciones interpersonales provoca reacciones muy ambiguas. En lugar de brindar la ayuda esperada y aumentar la eficiencia, se observa una disminución de la confianza, la honestidad y la disposición a cooperar — elementos fundamentales de las relaciones sociales.

El experimento abarcó cinco juegos económicos clásicos para dos jugadores: Ultimátum, Confianza, Dilema del prisionero, Caza del ciervo y Coordinación. Los participantes sabían que su compañero de juego podía ser una persona real o alguien que delegaba sus decisiones a ChatGPT. En algunos casos, esto se comunicaba abiertamente, en otros se ocultaba. El resultado reveló que las decisiones tomadas por la IA, aunque racionales e incluso más ventajosas, generaban reacciones negativas. Esto reducía los niveles de confianza y percepción de equidad, disminuía la cooperación y afectaba la efectividad general de las interacciones.

Lo interesante es que los propios participantes delegaban con gusto sus decisiones a ChatGPT, especialmente si la otra parte no lo sabía. Esta estrategia reducía su propia responsabilidad y evitaba tener que dar explicaciones, necesarias cuando se decidía por cuenta propia. Además, el nivel de delegación aumentaba notablemente en contextos opacos: si el compañero no sabía si la decisión la tomaba una persona o una IA, los participantes optaban por la IA el doble de veces. Esto sugiere que las personas son conscientes de que el uso explícito de IA puede percibirse negativamente y afectar el resultado.

Cuando los participantes descubrían que su compañero usaba abiertamente ChatGPT, su comportamiento cambiaba: ofrecían menos en el juego del Ultimátum, eran menos cooperativos en los dilemas y, en general, esperaban menos buena voluntad del otro. Pero si no sabían si era una persona o una IA, actuaban como si fuera un humano. Esto indica que el sesgo contra la IA surge precisamente en el momento en que se reconoce su participación.

Los investigadores también exploraron si la personalización de la IA podía cambiar esa percepción. Para ello, los participantes respondían previamente a siete preguntas de preferencias personales (como “intuición o racionalidad”, “egoísmo o altruismo”), y ChatGPT adaptaba sus decisiones en base a esas respuestas. Sin embargo, ni siquiera estas medidas restauraron la confianza: los participantes seguían considerando que la IA no reflejaba completamente las intenciones o valores del otro.

Una tarea adicional consistía en comprobar si era posible distinguir decisiones tomadas por la IA. Para ello, evaluadores independientes revisaban pares de decisiones — una humana, otra de IA. Sin explicaciones, adivinaban casi al azar. Pero cuando se incluía una justificación, en la mayoría de los juegos era posible identificar la IA: sus argumentos eran más formales, técnicos y se basaban en expectativas teóricas. La IA resultó particularmente fácil de detectar en el Dilema del prisionero, ya que siempre elegía cooperar, a diferencia de los humanos, más cautelosos. En cambio, en el juego de Coordinación, los participantes erraban más, ya que la IA ofrecía explicaciones muy similares a las humanas.

El efecto observado de disminución de indicadores sociales ante la participación evidente de ChatGPT fue resistente a todos los factores externos: edad, género, nivel educativo o experiencia con IA. Es decir, no se trata de desconocimiento o miedo a la tecnología, sino de una reacción social profunda al hecho de que decisiones que afectan a otros no sean tomadas por personas. Incluso cuando la IA actúa en beneficio del usuario y produce buenos resultados, la actitud hacia ella sigue siendo de desconfianza.

Estos resultados confirman la existencia del fenómeno de rechazo a los algoritmos, ya observado en investigaciones sobre sistemas automatizados clásicos. Pero es la primera vez que se documenta este efecto en el contexto de modelos lingüísticos universales capaces de interactuar socialmente. Además, la transparencia en el uso de IA — comúnmente considerada garantía de ética — agrava la situación: cuando se sabe que la decisión proviene de una IA, la confianza y la honestidad caen aún más.

La investigación sugiere que futuras regulaciones, como la Ley de IA en la UE, deben tener en cuenta no solo la obligación de revelar el uso de IA, sino también los posibles efectos negativos de dicha transparencia. No basta con informar a las personas sobre la intervención de IA: es necesario generar confianza y diseñar mecanismos que reduzcan la percepción de esas decisiones como frías o poco éticas. De lo contrario, incluso los modelos más avanzados corren el riesgo de convertirse en socialmente tóxicos. Como demuestran los expertos en ingeniería social, el factor humano sigue siendo uno de los eslabones más vulnerables de cualquier sistema, y la implementación de IA exige una comprensión profunda de los aspectos psicológicos de la interacción con la tecnología.

¿Tu Wi-Fi doméstico es una fortaleza o una casa de cartón?

Descubre cómo construir una muralla impenetrable