我国宣布三项人工智能安全治理计划,针对在不同语言、文化环境中使用AI的潜在风险,为新技术在全球的安全发展提供借鉴。

到法国巴黎参加人工智能行动峰会的数码发展及新闻部长杨莉明,星期一(2月10日)在出席一个以政府企业合作为主题的专题讨论会上,宣布了这三项计划。

它们分别是由AI Verify基金会和资讯通信媒体发展局联合推出的全球AI安全保障试点项目;与日本联合开展的大型语言模型在十种不同语言环境中的安全测试报告;以及由资媒局和Human Intelligence合作开展的AI安全“红队演练”(Red Teaming)挑战评估报告。

杨莉明在发言中说:“AI正在重塑我们的世界,新加坡以此为契机,为AI安全和治理做出贡献。我们致力于同全球的业界、学术界,和社会各界建立强有力的全球伙伴关系,让AI成为让新加坡和全世界受惠的公共产品。”

“红队演练”指通过模拟恶意攻击,来发现AI系统中的潜在漏洞和弱点的行动。此次演练于去年11月至12月进行,涉及新加坡、中国、马来西亚、印度尼西亚、日本、韩国、印度、泰国、越南九个国家的约350位专家,杨莉明称之为全球首个跨文化多语种的此类演练。

延伸阅读

杨莉明:人工智能时代 合作胜过单打独斗
杨莉明:人工智能时代 合作胜过单打独斗
杨莉明:面对人工智能发展 员工须提升技能保持竞争力
杨莉明:面对人工智能发展 员工须提升技能保持竞争力

这项演练发现和归纳了AI在不同语言环境中的失实表达,其中,有关性别的偏见最为明显,排在之后的是种族和宗教、地理及身份认证,以及社会经济。

此次宣布三项计划中的全球AI安全保障试点项目,将汇聚来自世界的AI安全测试供应商和生成式人工智能公司,助力制定AI安全标准和治理框架。

杨莉明说:“通过试点项目,我们正为医疗保健、金融等不同行业的生成式人工智能应用,迈出建立行业标准的第一步。”

新加坡国立大学副教务长(教育创新)兼新加坡全国人工智能核心高级司长陈西文教授(Simon Chesterman,52岁),过去10多年间一直从事AI治理和数据安全等领域研究。他在接受《联合早报》采访时指出,国际上关于AI治理的讨论往往局限于欧盟、美国,或者中国,讨论的内容也常常是隔靴搔痒的泛泛而谈。新加坡独辟蹊径,致力于拓宽讨论范围,重视实际运作,正在迅速成为AI治理的重要世界成员。

他说:“你可以把AI大型语言模型看成是一个非常聪明但习惯酗酒的实习生:他有时令你刮目相看,但你却信不过他。新加坡最近启动的计划,就是对症下药,有利于提高他的可信度。”

总部设在德国和新加坡的AI安全保障测试公司Resaro,将参加全球AI安全试点项目。公司新加坡首席执行官秦秀灵在受访时指出,试点项目让我们能将AI保障解决方案拓展至更广泛的市场和行业,以满足企业日益增长的AI保障需求。 

她说:“通过参与试点项目,我们希望加速 AI 的应用,为企业提供关键的技术证据,评估AI应用的性能、安全性和防护能力,确保它们能够自信应对AI发展趋势。”