A China voltou a posicionar‑se no debate internacional sobre a regulação da inteligência artificial (IA), alertando para os perigos e consequências dos sistemas de IA com traços humanos — tecnologia que simula personalidade, emoção e interação social semelhantes às dos seres humanos.
A CAC (Administração do Ciberespaço da China), o regulador cibernético chinês, publicou um projeto regulatório que pretende reforçar a supervisão de serviços de IA destinados ao público que exibem características de personalidade humana, padrões de pensamento e estilos de comunicação emocionais. As propostas estão agora abertas a consulta pública e são apresentadas com o objetivo de “promover um desenvolvimento saudável” desse tipo de IA, bem como “manter a ordem social e a segurança nacional”, conforme cita o El Español.
Caso avance, a nova lei obriga os desenvolvedores deste tipo de sistemas de IA a utilizarem dados que estejam alinhados com os “valores socialistas” e a “excelente cultura tradicional chinesa “, assim como a origem dos dados deve ser “legal e rastreável”.
Ao contrário de abordagens centradas apenas em segurança técnica ou proteção de dados, a proposta chinesa introduz o conceito de responsabilidade emocional. Assim, as empresas que desenvolvem e operam IA com traços humanos devem ser obrigadas a alertar os utilizadores sobre os riscos de uso excessivo destas tecnologias e a intervir quando forem detectados sinais de dependência emocional ou comportamental, defende-se no documento.
Essa intervenção será obrigatória caso sejam identificados estados emocionais extremos ou padrões de uso problemáticos — um passo sem precedentes no campo da regulação de IA.
Além disso, as empresas teriam de monitorizar não só a performance técnica dos sistemas, mas também o impacto psicológico contínuo que estes produzem nos utilizadores, incluindo a avaliação de estados de humor, emoções e níveis de dependência.
O novo quadro regulatório reforça também as exigências de segurança ao longo de todo o ciclo de vida do produto, incluindo sistemas de revisão algorítmica, proteção de dados e salvaguarda de informações pessoais. Paralelamente, impõe limites sobre o conteúdo gerado através de IA, proibindo material que viole a segurança nacional, alimente rumores, promova violência ou inclua obscenidades — naquele que é um reflexo do foco mais abrangente do Estado sobre a gestão da informação e da opinião pública.
Embora estas regras se apliquem formalmente apenas dentro da China, alguns especialistas já interpretam a iniciativa como uma tentativa de marcar a agenda internacional regulação da IA.














