在汽车工业发展的早期,安全带的普及曾一度被视为掣肘。但今天我们毫无争议地认识到,它提升了驾驶信心、推动了整体安全技术的进步。那么在人工智能迅猛发展的今天,我们又该如何“系好安全带”?
在新加坡亚洲科技会展上,人工智能安全专家宋晓冬用这一生动比喻,说明AI安全监管的重要性。她指出,AI能力越强,可能带来的风险也越大。幻觉、偏见、隐私泄露、对抗性攻击等潜在隐患,需要我们正视,也需要科学的方法去识别和控制。
宋晓冬有着“计算机安全教母”的美誉,是美国加州大学伯克利分校负责任去中心化智能中心联合负责人,也是这个领域屈指可数的顶尖华裔科学家。接受联合早报《有客到》栏目专访时她谈到,团队最近通过观测人工神经网络的内部“激活”过程,正在尝试像显微镜研究细菌一样研究AI模型的“神经元”,并探索如何更好地理解甚至控制这些复杂系统的行为。与人脑神经科学相似的方法,正成为AI可解释性和安全研究的重要方向。
她的团队早在2017年就以一个贴纸误导AI识别停车标志的实验,引发业界对“对抗性攻击”的广泛关注。这种攻击方式并非科幻,而是真实可操作的风险,而在防御手段上,迄今为止学术界仍面临巨大挑战。
另一个值得警惕的问题是数据隐私。宋晓冬说,AI模型在训练中可能“记住”原始数据,攻击者甚至能从中提取用户隐私信息。随着AI逐渐成为个人助理,甚至决策的参与者,如何确保其在帮助个人的同时不泄露敏感信息,将变得尤为关键。
宋晓冬除了是一名研究者,还同时兼有创业者、企业家的身份。她创建了绿洲平台(Oasis Labs),旨在打造一个集安全性、高扩展性和隐私保护于一体、可以支持真实应用的区块链智能合约平台。同时提出“数据金库”的概念,设想未来每个人都能像拥有财产权一样掌握自己的数据,并从中受益。这不仅是隐私保护的尝试,更是一种技术赋权的主张。她认为,AI的发展如果能够去中心化,更关注个体利益,而非仅服务于平台与大公司,将为普通人带来前所未有的能力释放——比如协助写作、搭建网站、做出决策等。
不过,技术进步也意味着全球协作的必要。宋晓冬参与发起和联署了“基于科学与证据的AI政策倡议”,呼吁制定AI监管规则时应摒弃意识形态,以科学与证据为基础。她强调,AI风险无国界,AI安全更需国际合作。新加坡最近发布的《AI安全共识报告》,正是各国专家齐聚、共识逐步形成的体现。
当被问及是否对AI的未来乐观时,宋晓冬用“理性乐观主义者”来形容自己。她说,尽管AI能力在飞速进步,而安全研究进展相对缓慢,但人类社会在历史中展现出的韧性与创造力,值得我们继续相信。只要投入足够资源、建立开放合作机制,我们仍有机会让AI真正造福社会,实现负责任的创新。
