专家:员工使用生成式AI工具 企业须设规范防数据泄漏

新加坡网络安全局前副局长克帝今年8月转换跑道,加入安信资讯安全公司,目前担任咨询和新兴业务执行副总裁。(特约陈福洲摄)
新加坡网络安全局前副局长克帝今年8月转换跑道,加入安信资讯安全公司,目前担任咨询和新兴业务执行副总裁。(特约陈福洲摄)

字体大小:

生成式人工智能工具固然可为工作带来便利,但企业须规范员工如何使用这类工具,以免将敏感资讯上载到互联网。

新加坡网络安全局前副局长克帝(Gaurav Keerthi)今年8月转换跑道,加入网安公司安信资讯安全(Ensign InfoSecurity),目前担任咨询与新兴业务执行副总裁。他近日接受《联合早报》独家专访。

数据泄漏预防技术可侦测员工上载敏感信息

谈及当今商业领域常被忽视的问题时,克帝提醒企业,应认真考虑如何规范员工对生成式人工智能工具的使用。他警告:“上载文件到这些公共领域的生成式人工智能工具,相当于将这些文件与全世界共享。”

他指出,如果企业不认真规范这一块,那么员工向生成式人工智能工具上载敏感信息,并不是员工的责任,因为没人告诉他们不能这样做。

他说,安信目前与本地几家公司合作,研究如何在确保敏感文件不会被上载的情况下,使用生成式人工智能工具,并通过数据泄漏预防(data leak prevention)技术,在有员工上载敏感信息时立刻发现。

小企业难恢复数据 遭勒索软件破坏风险最大

对于2024年的网络安全形势,克帝预测,勒索软件(ransomware)、黑客行动主义者(hacktivist)、网络诈骗将是网安领域的三大趋势。他说,从商业角度来看,勒索软件的破坏风险最大,尤其会对小型企业造成的冲击。这些小型企业往往不知如何恢复数据,对它们来说,破产可能比重建整家公司的成本低。

“这会是件非常悲惨的事,但对于大型企业来说,遭勒索软件攻击的后果可能只是丧失两三天的生产力。”

克帝提醒,企业在采用人工智能工具时,须思考两方面的技术风险。一是,如果采用有别于传统、基于规则且可预测的概率性(probabilistic)系统,那么聊天机器人就可能以意想不到的方式回答顾客的问题。二是,人工智能系统本身也有技术缺陷,这些缺陷可被黑客利用。如果用公司政策训练聊天机器人,让它代为解答员工的问题,那么黑客也有可能让聊天机器人将这些机密信息全“吐出来”。

LIKE我们的官方脸书网页以获取更多新信息