印度尼西亚近日宣布,马斯克旗下的xAI人工智能应用Grok涉嫌生成色情内容,因此暂时封锁用户使用。随后,马来西亚监管机构也公开表达对类似风险的担忧,并采取限制措施。这一举动引发两种典型反应:支持者认为“必须先刹车再上路”,反对者担心“一刀切”会扼杀创新。若只停留在“封与不封”的立场之争,反而会错过更关键的信号——生成式AI正在把数码治理从事后的“内容治理”推向“事前的能力治理”,东南亚很可能是这一转型最早发生,也最具代表性的试验场。随着各地批判声浪的加大,xAI在上周三表明,已对Grok AI聊天机器人的所有用户实施了限制,禁止进行图像编辑。
首先须要正视的是:这并非单纯的色情内容问题,而是在数码世界里如何保护人权的问题。传统互联网的伤害多依赖传播渠道:一张不雅照、一段偷拍视频,往往源于现实中的侵害,再由平台扩散。生成式AI改变这一链条,它把“制造伤害”的门槛大幅降低,并使伤害可以在极短时间内规模化复制。非自愿的深伪色情内容直接侵害个体的尊严、同意权与社会身份;受害者往往在证据链、取证成本、跨境追责上处于劣势。监管者对这类风险采取强硬动作,并非道德保守主义的回潮,而是公共安全与人权保护在数码时代的必然反应。
监管开始要求产品上线前承担风控义务
但更值得讨论的,是治理逻辑的优化。过去平台治理以“事后删除”为主:发现违规内容,用户举报,平台下架,必要时配合执法。这套机制在社交媒体时代已经疲于奔命,到了生成式AI时代更显捉襟见肘,因为问题不再是“有人发布了什么”,而是“默认系统能生成什么”。当一个工具具备轻易生成高风险内容的能力时,单靠用户举报与事后删除,等同于让社会为技术的默认设置买单。马来西亚监管方对“过度依赖用户举报、护栏不足”的批评恰恰反映这种转向:监管开始要求AI企业在产品上线之前,就应该承担风险控制的义务。
