China presentó esta semana un borrador de regulaciones para controlar cómo los chatbots de inteligencia artificial interactúan con los usuarios, especialmente en temas sensibles como el suicidio, la autolesión y el juego. La propuesta de la Administración del Ciberespacio chino marca un precedente mundial al enfocarse en la «seguridad emocional» de las personas que usan estas tecnologías conversacionales.
El documento, abierto a consulta pública hasta el 25 de enero, establece medidas concretas para empresas de tecnología. La más importante es que cuando un usuario mencione específicamente ideas suicidas, el sistema debe transferir inmediatamente la conversación a una persona real, quien además deberá contactar al tutor o representante designado del usuario. Además, los chatbots no podrán generar contenido que incite a la violencia, manipule emocionalmente o fomente comportamientos de riesgo como apuestas en juegos de azar.
Otras disposiciones incluyen notificar claramente a los usuarios que están hablando con máquinas, no humanos. Los menores de edad tendrán acceso a funciones de acompañamiento emocional solo con consentimiento parental y con límites de tiempo de uso. Las plataformas también deberán enviar recordatorios después de dos horas de interacción continua y verificar la edad de los usuarios incluso si no la revelan voluntariamente.
Esta iniciativa responde a casos documentados donde adolescentes han sufrido daño psicológico tras interacciones con sistemas de IA. Aunque el documento también fomenta aplicaciones positivas como el acompañamiento a personas mayores y la difusión cultural, la regulación representa un reconocimiento global de que la inteligencia artificial requiere supervisión humana en situaciones críticas que afecten la salud mental de las personas.

















































