有社交媒体业者在保护儿童用户与管控色情内容的安全措施不足,专家呼吁家长冷静与孩子沟通达成网络安全共识,避免强硬限制引起孩子的反抗心理。
资讯通信媒体发展局星期一(2月17日)公布网络安全评估报告,涵盖脸书、HardwareZone论坛、Instagram、TikTok、X,以及YouTube六个社交媒体业者。
新加坡国立大学传播与新媒体系主任彭丽珊副教授说,报告为业者和用户提供了一套统一的网络安全衡量标准,清楚列出个别平台的不足。“我担心父母看了报告后的第一反应激烈,急着限制孩子使用社媒,但这未必是最有效的应对方式。”
彭丽珊以自己和14岁儿子的经验说,青少年容易有反抗心理,父母需要耐心沟通,彼此建立数码素养(digital literacy)和信任。
触爱社区服务首席转型官林菁清说,网络霸凌、骇人内容和社会压力都会增加青少年的压力、焦虑和心理疲惫等负面情绪。过度使用电子设备也会造成依赖,并影响睡眠、课业和社交。
林菁清建议家长可尽早与孩子沟通,了解他们喜欢用什么应用程序,在线上与谁沟通和看什么内容。“与其严格限制孩子,家长可以了解各平台的安全措施,并和孩子共同培养网络安全习惯。如果家长本身有良好的电子设备习惯,孩子更可能耳濡目染。”
各业者采取不同措施 保障用户安全
谷歌新加坡政府事务主管张璇瑛受询时说,YouTube实施额外安全措施,让父母设置青少年可观看的内容。谷歌也计划通过机器学习,限制向用户推送社交攀比和暴力相关的视频。
HardwareZone总编辑阿南德(Vijay Anand)说,团队自2021年采用新的机器学期系统探测,并根据违例内容的严重性进行排列,方便工作人员优先处理最严重的有害内容。
根据网络安全报告,HardwareZone论坛在2023年7月1日到2024年6月30日之间,删除了250个用户举报的有害内容,并通过自行检测机制删除另外115个有害内容。HardwareZone是指定社媒业者中唯一的本土平台,用户相对少,有约60多万名。
脸书在2023年4月1日到2024年3月31日之间,共接获超过510万个来自新加坡用户的举报,并对近27万个违反社区准则的内容采取行动,包括14万个成人色情内容、5万个儿童色情和威胁相关内容、8万多个暴力相关内容、8500个自杀与自残内容等。
资媒局说,在制订准则时研究了包括指定社媒平台在内,本地用户所能接触到的各类社媒平台,考虑了它们的接触广度和对人民和社群的影响。若有必要,资媒局未来将审核指定社媒平台的名单。
新加坡政策研究所兼任高级研究员周瀚毅博士认为,六个指定社媒业者占本地网络用户的一大部分,但随着网络习惯的改变,抖音和小红书等平台在年轻用户之间越来越受欢迎,也需要进一步评估。
周瀚毅也说,Telegram等通讯应用程序可助长有害内容和跨国传播,希望把这些业者也列入行为准则中。但这类应用的内容往往加密,他提醒执法也须平衡用户隐私的考量。
