政府将制定新准则 社媒日后须阻断有害内容保护青少年

字体大小:

社交媒体平台若出现自残、性伤害或诋毁宗教和种族等有害内容,政府可指示业者禁止本地用户浏览这些信息和联系发布这些内容的账户。社交媒体业者今后也须采取一系列安全措施,为用户打造更安全的网络空间,尤其是更好地保护18岁以下青少年。

网络空间藏有不少安全隐患,政府将通过拟议中的互联网行为准则以及社交媒体内容监管准则,加强对用户的保护。前者规定面簿、Instagram和TikTok等用户人数较多、风险较高的社媒服务须采取安全措施。后者则赋予资讯通信媒体发展局更多权限,在发现有害内容时能指示业者禁止新加坡用户浏览,或与发表这些内容的账户交流。

网络上的有害内容包括,对公共安全与卫生构成威胁、涉及自残或性伤害等。例如,今年5月美国水牛城枪击案网络直播,TikTok上导致10岁女童窒息死亡的“昏迷挑战”。对新加坡而言则还包括种族或宗教仇视的内容,通讯及新闻部举例说,去年有一名新加坡男子冒充华族女性,在推特上发布煽动种族仇恨的言论;在这之前,在“NUS无神论协会”面簿网页上,有网民发布一张《圣经》和《可兰经》照片,称“缺厕纸时可用”。

将征询家长及青少年等群体意见

当局本月已经就这两套准则展开业界咨询,下个月会通过公共咨询征询家长及青少年等相关群体意见。一旦修订广播法令,加入这些准则后,它们就具法律约束力。

通讯及新闻部长兼内政部第二部长杨莉明今年3月在国会说,政府有意拟定新准则加强网络空间的安全。她昨天在面簿贴文分享工作进度时说,人们在社媒平台交流有好处,但一些坏处也伴随而来,因此不少国家已经或正在立法保护用户。

德国在2018年通过了网络执行法案,英国也在拟定网络安全法案。至于新加坡,杨莉明解释,我国会通过咨询与合作的方式,来加强对网络空间的监管。除了吸取他国经验,政府也会就最新科技发展与科技公司交流,并了解人民的需求。“这会确保我们制定出科技上可行、能够有效执行并适合我们需求的条例。”

阳光联盟今年1月对1000名新加坡人展开调查后发现,每两人中有一人在网上接触过有害内容,当中好些是青少年。也有人经历过与性别有关的网络伤害,当中有61%是在较受欢迎的社媒平台上发生的。

政府会通过互联网行为准则加强用户安全、改善用户举报流程,以及对社媒业者问责。在用户安全方面,业者必须制定社群守则,并采用可过滤内容的机制。它们也须快速探测并删除任何有关恐怖主义、儿童性剥削或虐待的内容。

有较多18岁以下用户使用的平台必须采取额外措施,包括为父母提供过滤内容的工具,减少未成年者接触到不良内容。

这些平台也须提供渠道,让用户轻易举报不良内容;对于用户的举报,也要及时采取行动。业者每年也须向资媒局提交问责报告,当局之后会在网站公布报告。

LIKE我们的官方脸书网页以获取更多新信息