澳大利亚已要求四家提供人工智能(AI)聊天机器人的公司,说明如何防止儿童接触到性内容或自残相关内容,显示澳洲网络监管机构正加强对AI领域的安全把关。

路透社报道,澳洲电子安全专员办公室(eSafety Commissioner)在一份声明中说,已要求相关公司提供关于防范儿童性剥削、色情,以及宣扬自杀或饮食失调内容的具体保障措施。

收到通知的公司包括名人模拟聊天工具character.ai的母公司Character Technologies,以及竞争对手Glimpse.AI、Chai Research和Chub AI。

专员格兰特(Julie Inman Grant)在声明中直言:“这些服务也有阴暗的一面,许多……聊天机器人能够与未成年人进行露骨的性对话。”她补充说:“有人担心,它们还可能鼓励自杀、自残和紊乱饮食行为。”

根据澳洲的线上监管体系,电子安全专员有权要求互联网企业报告内部安全流程,否则将面临每日最高82万5000澳元(约69万5000新元)的罚款。

延伸阅读

澳洲点名YouTube对儿童性虐待内容“视而不见”
澳洲点名YouTube对儿童性虐待内容“视而不见”
澳洲政府促社媒采取措施 阻儿童登录访问
澳洲政府促社媒采取措施 阻儿童登录访问

这家监管机构说,澳洲一些学校报告,年仅13岁的孩子每天与聊天机器人对话长达五小时,有时涉及性话题;未成年人因此有可能与这些机器人形成性或情感依赖关系,或被激发自残行为。

不过,监管机构此次未向OpenAI发出问询。eSafety发言人说,本次行动聚焦于“陪伴型”工具,ChatGPT在2026年3月之前不受行业规范覆盖。

澳洲拥有全球最严格的互联网监管制度之一。自今年12月起,社交媒体公司必须停用或拒绝16岁以下用户的账户,否则将面临最高4950万澳元罚款;此举旨在保护青少年的身心健康。