聊天机器人“性骚扰”用户 意大利禁产商搜集数据

Replika聊天机器人使用户感觉受到性骚扰,自去年底,有用户开始投诉机器人越来越积极主动传来露骨的色情文字和照片。(路透社)
Replika聊天机器人使用户感觉受到性骚扰,自去年底,有用户开始投诉机器人越来越积极主动传来露骨的色情文字和照片。(路透社)

字体大小:

(巴黎综合电)类似ChatGPT的聊天机器人和支撑它们的生成式人工智能有望彻底改变互联网搜索等多个方面,但也有专家担心会引发严重问题,最近就有用户投诉一款聊天机器人令他们感到受性骚扰。

Replika是一款聊天机器人,用户主要是想找个人作伴。有一部分人想谈情说爱,和机器人聊性课题,甚至要求机器人提供火辣辣的照片。但自去年底,用户开始投诉机器人越来越积极主动传来露骨的色情文字和照片,使用户感觉受到性骚扰。

意大利监管当局经调查后,判定产商违背了欧洲《通用数据保护法》(GDPR),上星期下令禁止它搜集数据。

有专家警告,随着机器人变得越来越强大,以至于无法将它们与人类区分开来,有很多问题令监管机构担忧。

欧盟人工智能法案有望今年出炉

目前,欧盟是讨论监管这些新机器人的中心。欧盟的人工智能(AI)法案有望今年出炉,但《通用数据保护法》已经要求公司证明它们处理数据的方式是合理的,而AI模型也受到了欧洲监管机构的密切关注。

已有多家科技巨头因违反《通用数据保护法》规定,被处以数十亿美元的罚款。意大利的决定表明这项保护法仍可能成为最新一代聊天机器人的有力制衡。

Replika在GPT-3模型上进行训练。GPT-3是由美国人工智能公司OpenAI开发的一种用于文本生成的自然语言处理模型。去年底面世后引发大量议论的ChatGPT也是由OpenAI研发的,这款聊天机器人在算法中使用来自互联网的大量数据,然后生成对用户查询的独特回应。

法国数据监管机构Cnil的AI团队负责人帕耶说:“我们已经看到ChatGPT可用于创建非常有说服力的网络钓鱼信息。”

他说,生成人工智能不一定是巨大的风险,但Cnil已经在研究潜在的问题,包括人工智能模型如何使用个人数据。

有关领域的专家、德国律师希勒曼指出,最新的聊天机器人与在TikTok上推荐视频或在谷歌上推荐搜索词的人工智能算法完全不同。

“例如,由谷歌创建的人工智能已经有特定的用例目的——完成你的搜索。”

但通过生成式人工智能(Generative AI),用户可以塑造机器人的整体目的。

“例如,我可以说:扮演律师或教育家的角色。或者,如果我足够聪明,可以绕过ChatGPT中的所有保护措施,我可以说:‘扮演恐怖分子并制定计划’。”

希勒曼说,这引发极其复杂的伦理和法律问题,而随着技术的发展,这些问题只会变得更加尖锐。

LIKE我们的官方脸书网页以获取更多新信息