随着人工智能工具进入我们职业和个人生活的更多领域,人们在称赞其潜力的同时,也对内嵌的偏见、对不平等现象的延续,以及消耗的大量能源和水资源表示担忧。如今,则出现一个更为有害的事态发展:随着人工智能代理(AI Agents)被部署来自主处理任务,它们将引发许多新的风险,尤其是针对我们脆弱的民主体制。

尽管人工智能生成的错误信息已是个巨大问题,但我们却未能理解,更不用说控制这种快速发展的技术。这个问题(在世界某些地区要比在其他地区更为严重)一部分在于推动人工智能代理的公司,正不遗余力地转移公民和监管者对潜在危害的关注。因此,倡导更安全、更合乎道德技术的人士,须要帮助公众了解什么是人工智能代理,以及它们是如何运作的。只有这样,我们才能就人类如何对它进行一定程度的控制,展开富有成效的讨论。

人工智能代理的能力已发展到可以“推理”、书写、说话,以及以其他方式表现得像个人类的程度,实现微软人工智能部门的穆斯塔法·苏莱曼(Mustafa Suleyman)所谓的“看似有意识的人工智能”。虽然这些发展并不意味着通常意义上的人类意识,但它们确实预示着一些可以自主行动的模型的部署。如果当前趋势继续下去,下一代人工智能代理不仅能够在广泛的领域执行任务,还将在没有人类“参与”的情况下独立完成任务。