澳大利亚已要求四家提供人工智能(AI)聊天机器人的公司,说明如何防止儿童接触到性内容或自残相关内容,显示澳洲网络监管机构正加强对AI领域的安全把关。
路透社报道,澳洲电子安全专员办公室(eSafety Commissioner)在一份声明中说,已要求相关公司提供关于防范儿童性剥削、色情,以及宣扬自杀或饮食失调内容的具体保障措施。
收到通知的公司包括名人模拟聊天工具character.ai的母公司Character Technologies,以及竞争对手Glimpse.AI、Chai Research和Chub AI。
专员格兰特(Julie Inman Grant)在声明中直言:“这些服务也有阴暗的一面,许多……聊天机器人能够与未成年人进行露骨的性对话。”她补充说:“有人担心,它们还可能鼓励自杀、自残和紊乱饮食行为。”
根据澳洲的线上监管体系,电子安全专员有权要求互联网企业报告内部安全流程,否则将面临每日最高82万5000澳元(约69万5000新元)的罚款。
这家监管机构说,澳洲一些学校报告,年仅13岁的孩子每天与聊天机器人对话长达五小时,有时涉及性话题;未成年人因此有可能与这些机器人形成性或情感依赖关系,或被激发自残行为。
不过,监管机构此次未向OpenAI发出问询。eSafety发言人说,本次行动聚焦于“陪伴型”工具,ChatGPT在2026年3月之前不受行业规范覆盖。
澳洲拥有全球最严格的互联网监管制度之一。自今年12月起,社交媒体公司必须停用或拒绝16岁以下用户的账户,否则将面临最高4950万澳元罚款;此举旨在保护青少年的身心健康。
