开源人工智能代理平台OpenClaw去年11月推出以来用户增长迅速,但这类人工智能工具引发网络安全隐患关注。资讯通信媒体发展局提醒用户,应避免在存有敏感资料的工作或个人设备上安装OpenClaw,以降低数据外泄与安全风险。

OpenClaw是一款开源人工智能(AI)代理平台,可作为自主运行的个人助理,例如通过WhatsApp、Telegram、Discord及Slack等常见聊天应用界面,为用户提供智能化服务。这包括整合多个网站的资料、起草报告或电邮,及协调日程安排。

这款代理式AI面市后受广泛使用,但高度自动化的运作,也带来网安隐患。

资媒局星期四(5月14日)发布案例研究,探讨OpenClaw的运作风险,并促请用户在使用时,采取必要的安全措施与管理框架,在提升效率的同时,也保障数据安全。

资媒局指出,OpenClaw最初发布时,安全控制较为有限。它的主要风险包括系统不够成熟、访问限制与身份验证机制存在缺口、敏感数据可能外漏,及记忆机制被投毒(memory poisoning)影响系统运作。

延伸阅读

资媒局推人工智能素养计划 助科技人士深化技能
资媒局推人工智能素养计划 助科技人士深化技能
前沿AI加剧网安风险 政府召集金融机构和关键设施业者合力应对
前沿AI加剧网安风险 政府召集金融机构和关键设施业者合力应对

为此,资媒局根据代理式AI监管模式框架和业界最佳实践,建议四大安全实践方式。当局同时提醒,须区分不同的应用场景,例如个人或企业内部使用,以及面向客户或公众。在高风险的企业环境中,应采用更严格的安全防护机制。

首先是用户须提前评估并界定风险,避免在执行关键任务的系统、或存有敏感数据的主要工作及个人设备上使用,也不宜构建具备无限权限的单一“全能型”代理,而是得拆分功能,尽可能缩小权限。同时,应避免赋予超级用户权限,并限制对文件与应用的无限制访问,以降低潜在安全风险与损害范围。

超级用户权限指的是系统中的最高管理权限,允许用户不受限制地访问、修改系统文件,安装底层软件,或更改系统配置。

再者是要确保人类有效监督。对于高风险或不可逆转的操作,如金融交易、在生产环境中执行代码、删除关键数据及对外发送通讯时,不能完全交由AI自主决定,应在系统设置人类监督或批准程序。

其他的安全防范措施还包括落实技术与流程控制,及部署AI工具前后,加强测试与监控。

资媒局强调,自主AI工具迅速发展,并带来巨大效益,“目标不是避免使用它们,而是以拥有明确限制、问责制和保障措施的方式使用自主代理。”

资媒局指出,OpenClaw的案例凸显出,随着科技不断演进,持续保持警惕和采取更强有力的安全措施,非常重要,对安全需求较高的企业尤其如此。

网络安全公司Palo Alto Networks的首席安全情报官惠特莫尔曾警告,随着AI Agent的使用范围扩大,它们很可能成为黑客的头号攻击目标。其他网络安全公司和研究人员也警告称,攻击者可能通过所谓的“技能”文件获取对AI Agent的访问权限;这些可下载的文件允许用户添加到系统中,为AI Agent赋予新能力。