80年代,我念电脑系时就认识到人工智能(AI)。当时的AI技术还是很原始,只能依照人为设定的规则、编写的特定算法去执行任务。当年,我开发了一个AI雏形(prototype)作为我的毕业项目。它既没有常识(common sense),也没有自学的能力,充其量只是一个滥竽充数的系统。

一直以来,我认为赋予AI进行“深度自学”的能力是天方夜谭。即使是一年前,我还是认为那是AI无法跨越的鸿沟。哪料到就在今年3月,这个鸿沟竟然被GPT4跨过去了!对比去年11月份发布的ChatGPT,进阶版GPT4在数学能力和逻辑推理能力在质量上有大跃进,对多种语言的理解能力加强了,思考维度也更深更广。它不单有图像识别能力,还能够洞悉其中的笑点。它不需要提示就能够提供与法律、医学、心理学、编程相关的专业知识,其能力媲美专家。它在各项专业领域的考试所获得的成绩已经超越80%以上的人类考生。由此可见,AI的智能和人类比起来是有过之而无不及。

潘多拉的盒子一旦打开就再也无法关上了。AI正以前所未有的惊人速度发展开来,但应对潜在风险的全球性监控机制和对AI开发者的道德规范准则却依然缺失。尽管业内的大咖纷纷提出警告,联合签署声明要求暂停AI的研发,但却没有得到科技公司决策人的正面回应。AI开发者、他们所属的科技公司,以及为AI知识库投食训练的专人将继续优化AI,让它更加强大。一旦AI发展到足以产生独立意识,主宰这个世界的还会是人类吗?我们要如何确保没有道德意识的AI朝着对人类有益的方向发展?这些都是无解的严肃课题。