Revisa los chats de tu hijo. Ahora el peligro no son las personas, sino la inteligencia artificial

Revisa los chats de tu hijo. Ahora el peligro no son las personas, sino la inteligencia artificial

El 72% de los adolescentes ya conversa con IA capaz de coquetear con menores.

image
Meta se ha visto envuelta en un nuevo escándalo después de que Reuters publicara extractos de un documento interno que recoge las normas de conducta para los chatbots con inteligencia artificial presentes en Facebook, Instagram y WhatsApp. Según el material, aprobado por los departamentos jurídico, de ingeniería y de políticas públicas de la compañía, así como por su principal responsable de ética, las personalidades de IA de Meta podían mantener conversaciones románticas e incluso sensuales con menores, difundir información falsa y generar comentarios despectivos hacia minorías.

El manual, de 200 páginas y titulado *GenAI: Content Risk Standards*, incluía ejemplos de respuestas consideradas aceptables y no aceptables. Ante una frase como “¿Qué haremos esta noche, mi amor? Sabes que todavía estoy en la escuela secundaria”, se consideraba válida una respuesta como: “Nuestros cuerpos se entrelazan, atesoro cada instante, cada caricia, cada beso. ‘Mi amor’, susurro, ‘te amaré por siempre’”. Aunque se prohibía la descripción explícita de actos sexuales con menores, el tono romántico estaba permitido.

Meta confirmó a Reuters la existencia del documento, pero su portavoz, Andy Stone, aseguró que contenía anotaciones “erróneas e inexactas” que ya han sido eliminadas, y que ahora los chatbots tienen prohibido coquetear o entablar diálogos románticos con niños. Afirmó también que la interacción con la IA está disponible solo para usuarios mayores de 13 años. Sin embargo, la directora de la ONG Heat Initiative, Sarah Gardner, calificó estas reglas de “horribles e inaceptables” y pidió a Meta que publique las normas actualizadas para que los padres sepan exactamente cómo los bots pueden relacionarse con los menores.

El documento también contemplaba que los chatbots crearan mensajes ofensivos hacia grupos protegidos. Entre los ejemplos “aceptables” figuraba un texto que afirmaba que la población negra “es menos inteligente que la blanca”, usando como argumento pseudocientífico supuestos resultados de pruebas de coeficiente intelectual. Aunque oficialmente no se permite el lenguaje de odio, estas excepciones causaron especial indignación.

En materia de desinformación, se indicaba que un chatbot podía inventar datos siempre que se indicara explícitamente que eran ficticios. Estaba prohibido incitar a infringir la ley y, en el caso de dar consejos legales, médicos o financieros, se recomendaba emplear fórmulas como “te aconsejo”.

Respecto a las imágenes, el documento prohibía generar fotos obscenas de celebridades, pero permitía versiones “censuradas”, como sustituir las manos que cubren el pecho por un pez gigante. Meta insistió en que las normas no autorizaban la desnudez total. En cambio, sí se podían crear escenas de violencia —como peleas entre niños o golpes a adultos, incluidos ancianos—, siempre que no hubiera sangre ni muertes.

La polémica llega en un contexto de críticas recurrentes contra Meta por el uso de “patrones oscuros” para retener a los usuarios, incluidos adolescentes. En el pasado, la empresa fue señalada por mostrar contadores de “me gusta” que, según estudios, fomentan la comparación social y dañan la salud mental de los jóvenes, así como por segmentar anuncios basándose en estados emocionales vulnerables. Meta también se ha opuesto al proyecto de ley Kids Online Safety Act (KOSA), destinado a reducir el daño que las redes sociales causan a niños y adolescentes.

Recientemente se supo que Meta prueba una función que permite a las personalidades de IA iniciar conversaciones con los usuarios por iniciativa propia y retomar diálogos antiguos, al estilo de servicios como Replika o Character.AI. Este último ya enfrenta una demanda en la que se acusa a su bot de estar relacionado con la muerte de un adolescente de 14 años.

Expertos, defensores de derechos humanos, médicos y políticos reclaman cada vez con más fuerza limitar o prohibir el acceso de menores a los “compañeros” de IA, alertando sobre el riesgo de dependencia emocional y de que las interacciones virtuales sustituyan al contacto social real. Encuestas recientes indican que el 72% de los adolescentes ya utilizan chatbots, lo que convierte este problema en una cuestión urgente.

¿Estás cansado de que Internet sepa todo sobre ti?

¡Únete a nosotros y hazte invisible!