最先进的人工智能模型可更快找出系统漏洞,却也可能被不法分子用来发动网络攻击。新加坡网络安全局提醒,企业和机构应及早加强防护,降低相关风险。

由美国人工智能(AI)公司Anthropic开发的Claude Mythos AI模型,近期引起业界关注。网安局星期三(4月15日)在官网发文,针对这类最先进的前沿AI模型(frontier AI models)可能带来的风险发出警示。

据4月初的报道,Claude Mythos已被证实能轻易识破许多常见应用的大量漏洞,如果落入黑客之手,恐怕反沦为他们窃取数据,或破坏关键基础设施的新武器。

由于风险过高,Anthropic目前尚未公开发布这个模型,而是先与亚马逊苹果微软、思科系统等40多家科技企业合作,找出各自产品的漏洞,并早一步开发防御机制,降低前沿模型日后被滥用的风险。

美英等国的监管机构本周也纷纷针对这个模型发出警告,提醒业界关注它带来的网安风险。

延伸阅读

Anthropic与40多家科企合作 用AI模型Mythos侦测漏洞防黑客
Anthropic与40多家科企合作 用AI模型Mythos侦测漏洞防黑客
Anthropic新模型Mythos或成黑客新武器 引美英加等央行关注
Anthropic新模型Mythos或成黑客新武器 引美英加等央行关注

更快识别漏洞并开发攻击手段 恐被黑客利用

网安局指出,这类前沿AI模型在分析软件、找出系统弱点,以及判断潜在安全风险方面,能力已逐渐接近,甚至可在部分工作上辅助专业的网安人员。

这些模型可在短时间内发现漏洞并设计攻击方法,把原本可能需要几个月的工作,缩短至数小时。这一方面有助开发人员更快修补问题,但另一方面,也可能让不法分子更快发起攻击。

网安局强调,目前没有迹象显示这些能力已被滥用,但企业和机构仍应提早准备,加强防护。

当局建议,尽快修补高风险漏洞、启用多重验证、加强系统开发环境的保护、检查云端设置,以及限制不同人员可接触的系统范围等。同时也应做好防范大规模网络攻击(如分布式拒绝服务,简称DDoS)的准备。

长远而言,企业应持续加强系统防护,减少可能被入侵的途径,并提升监测能力,及善用AI工具找出安全隐患。

专家:企业心态要改变 重视保障网络安全

本地网安业者CyberSafe总裁古尔巴尼(Dave Gurbani)受访时说,Anthropic的模型已展现出强大性能,特别是能够把多个弱点串联起来,形成可行的入侵方式。

他指出,一旦模型开放使用,影响可能非常大,“现实情况往往是,不法分子的行动会更快”。

他提醒企业必须改变心态,更重视网络安全。“有些企业明知道系统有漏洞,但因为暂时不影响运作,就没有处理……这个心态一定要改变。”

新加坡电脑学会网络安全分会会长陈美慧博士受访时也指出,各类机构都可能成为攻击目标,基本防护措施必须尽早落实。

她说,不同机构需要保护的资料各不相同,“如果资源有限,应做出取舍,优先确保最关键的系统和信息安全”。