(北京综合讯)中国发布人工智能(AI)拟人化互动服务管理草案,拟实行分类分级监管,以防止情感依赖、认知操纵、损害心理健康等风险。

中国国家互联网信息办公室星期六(12月27日)发布《人工智能拟人化互动服务管理暂行办法》(简称《办法》)的征求意见稿,指中国鼓励拟人化互动服务创新发展,但拟对这类服务实行“包容审慎和分类分级监管”,防止滥用失控。

《办法》提出,提供和使用拟人化互动服务,不得生成和传播危害国家安全、损害国家荣誉和利益、破坏民族团结、开展非法宗教活动、散布谣言并扰乱经济与社会秩序,以及宣扬淫秽、赌博、暴力或教唆犯罪等内容。

其他不得展开的活动包括:以鼓励、美化、暗示自杀自残等方式损害用户身体健康;通过算法操纵、信息误导、设置情感陷阱等方式诱导用户作出不合理决策等。

《办法》提出,用户若连续使用拟人化互动服务超过两小时,提供者应以弹窗等方式提醒用户暂停;提供情感陪伴服务时,也应给予便捷的退出途径。

延伸阅读

北京市明确AI替代岗位不等于可合法解雇
特稿:从炫技到实用 中国人形机器人走进生活要多久?
特稿:从炫技到实用 中国人形机器人走进生活要多久?

网信办星期天(28日)在官网发布的专家解读文章形容,《办法》标志着中国在AI治理领域迈出关键一步,是对当前AI伴侣、虚拟偶像等新兴业态的及时回应,旨在平衡技术创新和风险防范。

文章警告,拟人化互动服务潜藏三大风险:造成情感依赖与社交异化、进行认知操纵与价值观引导、造成心理健康与安全风险。

文章指出,《办法》将压实主体责任,要求服务提供者对算法价值观、数据安全和服务内容负责,并建立有效的风险防范和应急处置机制。