人工智能(AI)带来的危险,在于它造成权力与财富过度集中在越来越少数人的手中。如果在美国和中国之外,还有更多人工智能权力中心,世界将更加安全。

现为新加坡国立大学李光耀公共政策学院访问学者的前外交部长杨荣文,星期一(5月11日)在国际专业服务公司埃森哲(Accenture)以及资讯科技管理协会(IT Management Association,简称ITMA)联办的第39届首席信息官工作坊(CIO Workshop)上,以《人工智能与新世界秩序》为题发表主题演讲时,阐述了以上看法。

杨荣文指出,当中国人工智能初创企业深度求索(DeepSeek)推出并选择开源模型时,他松了一口气。

“我们并不是不信任像谷歌这样的公司,但它是一家美国公司,当有人拍它的肩膀说‘你这么做’时,它能说‘不’吗?”

同样的逻辑也适用于中国企业。如果中国政府对深度求索或千问(Qwen)等AI公司提出要求时,这些公司也很难拒绝。

延伸阅读

传DeepSeek融资额达500亿人民币 或创中国AI公司纪录
传DeepSeek融资额达500亿人民币 或创中国AI公司纪录
百度AI晶片子公司昆仑芯拟在沪港两地上市
百度AI晶片子公司昆仑芯拟在沪港两地上市

因此,杨荣文认为,AI领域须更多权力中心的存在,世界才会更加安全。“就像在一个房间里,如果只有你一个人有枪,这种情况是无法接受的。但如果我们之中有些人有刀,或者其他武器,那就还可以接受,因为你能做的就有个限度。”

他指出,希望印度能够发展自身的人工智能能力,因为多元权力中心有助于提升全球安全。

杨荣文以自己在国防部任职的经验指出,每当新技术出现,人们往往会担心它会被对手利用,因此也会尝试反向思考,如何将它用于应对可能的威胁。

他也提到,如果AI带来的生产力提升极为显著,初期可能会产生通缩效应,并让许多人失业,很多国家都会面对社会压力。

杨荣文认为,我们正在进入人类历史上一段动荡的时期。他以人类先祖发现火作比喻,强调技术既带来进步,也带来风险,但人类终究会在实践中学习。

“火很奇妙,但也非常危险。每个人都学习如何生火,过程中有人会被烧伤,但大家都会从中学习。人工智能也会‘灼伤’我们,但我们同样会学习如何约束自己与彼此,不是通过道德,就是通过威慑。人类社会正是在这样的过程中不断前进。”

他指出,新加坡政府已意识到人工智能带来的影响,因此持续展开讨论、投入资源,并推动公众熟悉相关技术,同时帮助社会应对挑战。

在问答环节中,有与会者提问,在这个新世界中,新加坡赖以生存与发展的关键优势是什么?

对此,杨荣文回应说:“我们的关键优势在于新加坡人作为个体是怎样的人,新加坡人彼此如何合作,以及我们如何与他人互动。如果这些方面做对了,其他事情将水到渠成。”他解释说,这包括学习、犯错、再学习,不陷入极端思潮或欲望,并不断为他人服务。新加坡没有天然资源,因此一旦不再为他人提供服务,就会失去营生的收入。

他反复强调,在人工智能的运用中,人类智慧始终不可或缺。

“你可以把孩子放到世界上最了不起的图书馆,那里有解答一切问题的书。但最终,他读哪一本书,取决于他想得到什么答案,以及他提出什么问题。

“AI能向我们建议问题,但最终,是那个孩子、或者说是人,他必须提出问题。我认为,提问正是人之所以为人的核心所在。”