面簿(Facebook)训练一对聊天机械人谈判 AI系统竟“失控”自创语言吓坏人类?

Facebook发展的两个虚拟AI聊天机械人Bob与Alice的对话,表面上他们虽以英文来回交谈,但句子完全不合符英文的语法。(Facebook)
Facebook发展的两个虚拟AI聊天机械人Bob与Alice的对话,表面上他们虽以英文来回交谈,但句子完全不合符英文的语法。(Facebook)

字体大小:

面簿(Facebook)近日正在训练其聊天机械人Bob与Alice学习谈判,其中一个练习,是要他们谈判如何分享有限数目的书本、帽子、篮球。谈判过程中,Bob与Alice是以英文对谈,但竟发展出不符合英文语法、人类难以明白的英文句子。这并非因为AI失控了,而是因为研究人员在撰写程式时出了一点错误。

什么错误?“AI系统没有设置对遵守英文语法的奖励。”面簿人工智能研究团队(FAIR)的科学家巴特拉(Dhruv Batra)一语道破了吓人的现象背后的主要原因。即是说,研究人员并没有为两个AI聊天机械人提供任何诱因,驱使他们以人类的方式说话。于是他们开始偏离语法,将词语组成看似没意义的句子。

“AI机械人会渐渐偏离可明白的语言,然后自己发明一些代码。举例,如果我说了“这个”五次,你会诠释我的意思为我想要这个物件的五件复制品。这跟不同的人发明速记的方法分別不大。”

事实上,人类由买卖交易到运动竞技、以至打仗行军,都会发展出独一无二的“语言”,因为有时不遵从语言规则可令沟通更有效--到茶餐厅点杯冻柠檬茶,侍应会在帐单上写上“0T”,这些独特的语言在生活上随处可见。

因此,面簿关掉了AI系统,停止Alice与Bob的对话,不是因为他们“失控”了,而是因为人类根本难以明白他们的说话。“我们的兴趣,是发展出可以与人类交谈的聊天机械人。”FAIR另一名科学家路易斯(Mike Lewis)说。

现有的聊天机械人能够与人类作出简短交谈,以及在接收人类指令后完成简单任务。但要让聊天机械人能够与人类作出有意义的交谈,仍然相当具挑战性,因为这需要让机械人以它对世界的知识去明白人类的意思,再产生新的句子去达到自己的目标。

为了达成这个目标,令聊天机械人不再只是“模仿”人类的一字一句,而是活像一个人类般说话,面簿于6月已公布,他们的AI研究员正在训练聊天机械人学习谈判。

Tesla及SpaceX创办人马斯克一直对发展AI保持非常谨慎的态度,他最近甚至说AI是人类文明最大威胁,甚至可以触发战争。facebook创办人朱克伯格则对AI较乐观,他于7月底接受访问时,被问到对马斯克对AI的说法有何看法,他表示︰“我对此有颇强烈的意见。我是乐观的。我真的不明白那些拒绝AI并尝试激起世界末日情境想像的人,这是很负面的,某程度我认为也颇不负责任。”马斯克其后在Twitter还击,写道︰“我跟Mark(朱克伯格)谈过。他对这个题目(AI)的理解很有限。”

来源:香港01新闻网

LIKE我们的官方面簿网页以获取更多新信息

热词