Prohibido enamorarse y tope de 2 horas: China impone estrictas restricciones a la interacción con la IA

Prohibido enamorarse y tope de 2 horas: China impone estrictas restricciones a la interacción con la IA

China somete a debate un documento para controlar a los chatbots «casi vivos» y reducir los riesgos de adicción, manipulación y daño a la salud mental.

image

La Administración del Ciberespacio de China (CAC) puso a consulta pública un proyecto de normas temporales para servicios que, mediante IA, imitan la personalidad humana y mantienen una comunicación con carga emocional. El documento se refiere a chatbots y otros productos que conversan por texto, muestran imágenes, reproducen audio o vídeo y, al mismo tiempo, intentan parecer y sonar como una persona. Se aceptan comentarios y propuestas hasta el 25 de enero de 2026; la publicación está fechada el 27 de diciembre de 2025.

El proyecto introduce el propio concepto de «servicio interactivo antropomórfico» y de inmediato señala el enfoque del Estado: apoyar el desarrollo de las tecnologías, pero al mismo tiempo reforzar el control para evitar abusos y situaciones en las que los servicios «se salgan de control». Se propone coordinar la regulación a nivel del organismo nacional de internet, mientras que los ministerios especializados y las estructuras regionales serán responsables de la supervisión en el marco de sus competencias.

En esencia, la CAC intenta describir normas de conducta para interlocutores con IA, especialmente aquellos que construyen «relaciones» con el usuario. El documento enumera escenarios y contenidos prohibidos: desde materiales que puedan afectar la seguridad nacional y el orden público hasta pornografía, violencia e incitación a delitos. Se destacan por separado los riesgos propios de los servicios «emocionales»: la prohibición de insultos y acoso, de promesas falsas que puedan influir fuertemente en el comportamiento del usuario, de las manipulaciones emocionales, de las «trampas» y de empujones a decisiones poco razonables. Se establecen de forma explícita prohibiciones de fomentar o romantizar el suicidio y las autolesiones, así como de prácticas que puedan dañar la salud mental y la dignidad de la persona.

Se presta mucha atención a las obligaciones de los desarrolladores y operadores de estos servicios. Se les exige establecer sistemas de verificación y control: auditoría de algoritmos, evaluación ética, moderación, medidas de ciberseguridad y protección de datos, planes de respuesta ante incidentes y personal capacitado. La seguridad debe integrarse en todo el ciclo de vida del producto, desde el diseño y el lanzamiento hasta las actualizaciones y el cierre. Se subraya además que el objetivo del desarrollo no debe ser sustituir la comunicación en vivo, controlar la psique del usuario ni fomentar la dependencia.

El proyecto establece requisitos concretos para la protección de grupos vulnerables. Para los menores de edad se propone un «modo infantil» obligatorio con ajustes que recuerden la realidad, límites de tiempo y barreras adicionales; cuando haya acompañamiento emocional de menores se requiere el consentimiento explícito del tutor y herramientas de control parental. Para los usuarios mayores se proponen mecanismos de contacto de emergencia y notificaciones a familiares ante riesgos para la vida o la propiedad, y además se introduce la prohibición de servicios que imiten a parientes o a personas del círculo cercano del usuario mayor.

También se establecen reglas para el manejo de los datos. Los servicios deben proteger la correspondencia y otros datos de interacción, no transmitirlos a terceros sin bases legales o sin el consentimiento explícito, y ofrecer a los usuarios la posibilidad de eliminar el historial de conversaciones. Se indica de forma expresa que no se puede usar los datos de los diálogos ni los datos personales sensibles para entrenar modelos sin el consentimiento separado del usuario, y se propone que el trabajo con los datos personales de los menores sea verificado anualmente mediante una auditoría de cumplimiento, incluida la participación de organizaciones profesionales.

También hay requisitos destinados a reducir el «efecto de sustitución de la persona». Se debe advertir al usuario de forma clara que está interactuando con IA, y recordarlo al primer acceso, al volver a entrar y ante señales de dependencia excesiva mediante notificaciones emergentes. Si el usuario utiliza el servicio de forma continua durante más de dos horas, se le debe recordar que haga una pausa. Para los servicios emocionales se establece además una «salida cómoda»: no se puede impedir que el usuario finalice la comunicación, y la solicitud de salida mediante un botón o una palabra clave debe provocar la detención de la interacción.

Finalmente, el proyecto introduce umbrales y motivos para una evaluación de seguridad obligatoria. Será necesaria al lanzar o ampliar funciones, ante cambios sustanciales por nuevas tecnologías y también si se alcanza una audiencia numerosa, por ejemplo al registrarse un millón de usuarios o contar con diez mil usuarios activos al mes. Asimismo se propone evaluar cómo el servicio detecta estados de riesgo, cómo funciona la toma manual del diálogo, cómo se gestionan las reclamaciones y en qué medida se cumplen los requisitos de seguridad y protección de datos. Las aplicaciones con estas funciones deberán pasar controles por parte de las tiendas de aplicaciones, y por las infracciones se prevén medidas que van desde advertencias hasta la suspensión del servicio.

Por ahora es un proyecto sometido a debate, pero muestra la dirección de la regulación: China busca imponer límites más estrictos a los servicios de IA «con forma humana», haciendo hincapié en la seguridad psicológica, la protección de niños y usuarios mayores, así como en el control de los datos y la transparencia de que el interlocutor no es una persona. Si el documento se aprueba, debería entrar en vigor en 2026; la fecha exacta no figura todavía en el proyecto.