OpenAI首席科技官穆拉蒂(Mira Murati)认为,如果各大人工智能(AI)企业围绕安全性展开竞争,且不走“捷径”,这其实是一件好事。

穆拉蒂星期四(5月30日)在新加坡亚洲科技会展(Asia Tech x SG)的ATxSummit上,通过视频对话表达上述观点。穆拉蒂也是首席执行官奥尔特曼(Sam Altman)之后,OpenAI的第二号人物。

本周,电动车巨头特斯拉(Tesla)首席执行官马斯克(Elon Musk)旗下的人工智能起步公司xAI,完成60亿美元(约81亿新元)的B轮融资,以期与OpenAI等AI巨擘竞争。

穆拉蒂认为,重要的是安全地、负责任地竞争。OpenAI的目标是构建安全且有益于人类的通用AI(AGI),即与人类同等甚至超越人类的智能。

她说, 当前科技发展迅速,OpenAI正在安全性和社会影响方面加倍投入资源,“为即将到来的进步做好准备”。

延伸阅读

调查:我国2030年AI经济效益可达1983亿元 约占去年GDP近30%
调查:我国2030年AI经济效益可达1983亿元 约占去年GDP近30%
本地医疗团队用大语言模型 研发“虚拟医生”居家看诊
本地医疗团队用大语言模型 研发“虚拟医生”居家看诊

过去一年多,生成式AI打开了人们对未来的想象空间,也引发一系列担忧。在ATxSummit的另一场炉边对话会上,AI起步公司Anthropic总裁阿莫代伊(Dario Amodei)同样谈到AI的风险与监管问题。

成立于2021年的Anthropic,早期的团队成员全部来自OpenAI,他们因为与OpenAI理念不合而另起炉灶。

阿莫代伊认为,在未来一两年内,无论从全球安全、选举、还是算法偏见层面,AI模型都可能做出“非常危险”的事情,这是非常现实的担忧。

Anthropic总裁:须衡量算法偏见等风险

所谓的算法偏见,指的是当AI模型的训练数据集包含了决策者的固有偏见,这些偏见会被系统编纂和放大。譬如,如果一个人脸识别AI系统,训练数据以白人面孔为主,那么它对其他人种的识别能力就会相对较差。

阿莫代伊说,从监管角度来看,衡量这些风险非常重要,若不能有效衡量,监管就无从谈起。在他看来,最值得信赖的监管方式是采用第三方测试。

在这种模式下,政府不必对AI系统进行全面测试,而是创造一个具一定标准的市场来进行。

当前,新加坡资讯通信媒体发展局(IMDA)已与Anthropic等模型开发商合作,使用生成式AI评估沙盒,来对AI系统进行测试评估。

即使技术带来的风险仍不明确,两位生成式AI时代的领军人物都对AI的经济前景充满信心。

穆拉蒂说,在很短时间内,AI已成为人们的工作伙伴,尤其是最近发布的多模态模型GPT-4o,展现强大能力。“我们并没有完全意识到这对企业和工作的影响,因为它刚开始,但我预计,随着系统变得广泛可用,这将(对企业)相当重要。”

阿莫代伊说,不论AI最后会否通往AGI,如果规模指数级增长下去,会得到越来越好的模型,发挥巨大价值。例如,AI可以在药物研发等方面辅助人类,甚至可做出科学发明,“发明十个像PCR(聚合酶链式反应)或脊髓灰质炎疫苗这样的东西”。

AI发展挑战可被克服

阿莫代伊认为,从未来产生的价值来看,当前对AI领域的投入相当理性。“如果你问,为什么人们花1000亿美元来训练这些模型?事实上,这些事物产生的价值将远超1000亿美元。”

他也提到了AI的“规模定律”,即输入更多的数据和更多的计算,模型就会变得智能。

未来,AI发展可能面临一些障碍,但可以克服。一方面是数据,他认为,在一两年内,网上可自由获取的数据量会达到极限,目前已有一些合成数据的方法,将缓解这一瓶颈。算力方面,能源供应可能面对限制,但这个问题也正获得解决。