未成年人网络保护,短视频平台应担责 | 社会科学报
关注
根据中国互联网络信息中心发布的第52次《中国互联网络发展状况统计报告》,我国短视频用户连年迅猛增长,截至2023年6月已达10.26亿人,较2022年12月增长1454万人,占全部网民的95.2%。《青少年蓝皮书:中国未成年人互联网运用报告》连续两年显示,休闲娱乐已成为未成年人用网的重要目的,短视频类应用与网站最受欢迎。短视频平台为未成年人带来了多样化信息,拓展了其空间和视野,提升了其数字素养和技能,但也存在隐私泄漏、网络诈骗、网络沉迷、网络暴力、人身财产受侵害等问题和风险,对未成年人的身心发展形成了负面影响。
原文 :《短视频平台应承担未年人保护的责任》
作者 |北京师范大学新闻传播学院 方增泉 祁雪晶 元英
图片 |网络
《未成年人网络保护条例》出台在即,将会进一步促进未成年人网络保护工作机制和责任体系的完善。自2021年6月1日《中华人民共和国未成年人保护法》实施以来,北京师范大学新闻传播学院连续三年对互联网平台未成年人网络保护现状进行了调研。结果显示,短视频平台在未成人保护方面的总体评估得分呈逐年递增趋势(2021年58.0分,2022年66.6分,2023年70.5分,百分制),未成年人保护工作仍有较大提升空间。具体而言,在信息提示方面,一些短视频平台在隐私条款中缺少信息提示内容,在未成年人实际使用过程中也缺乏显著的信息提示;在技术保护方面,短视频平台对数据风险的监测评估还有所欠缺;在防沉迷管理方面,仍有部分平台对用户的身份审核不严,亟待进一步提升权限管理能力;在应急、投诉和举报机制方面,短视频平台基本设置了公开投诉、举报的方式,以及应急预案和补救措施,但在实际中的应急响应处理机制不够高效;在隐私和个人信息保护方面,短视频平台在“真实身份信息注册征得监护人同意”和“加强保护敏感信息”方面有待完善;在科学普及和宣传教育方面相对薄弱,平台大多缺乏进行科普宣传的主动性和创新性。
确保短视频平台有序发展、保障未成年人合法网络权益是一项系统性工程,社会各方需要一同努力、多管齐下,为未成年人健康成长打造风清气朗的网络环境。
第一,完善短视频行业规范标准,严格落实法律法规。针对当下短视频平台存在的问题,短视频平台需要严格执行行业自律规范,承担未成年人保护的社会责任。行业协会牵头制定评价指标,及时发现短视频平台在未成年人保护上存在的问题,强化未成年人风险披露义务。此外,还可以引入第三方机构,定期动态测评短视频平台未成年人保护状况并形成测评报告,敦促短视频平台改进问题。
第二,加强防沉迷管理,完善“未成年人模式”。短视频平台应在功能升级过程中主动探索未成年人模式的新内容、新形式,进一步丰富和细化内容池,为未成年人提供的内容能够匹配他们的年龄和需求,让其成为传递知识、培养兴趣的资源阵地。同时,加强未成年人模式应用推广,解决“打开率不高”“形同虚设”等问题,提升未成年人模式平均使用率,在现有模式的基础上进一步优化功能设置,提高未成年人身份识别的准确性,增强未成年人保护的有效性。
第三,人机协同审核把关短视频平台内容安全。研究发现,短视频平台算法存在内容高度同质化和信息窄化的现象,容易让未成年人陷入“信息茧房”,偏离社会主流价值观。对此,短视频平台要秉持“科技向善”的理念和价值导向,尽可能地丰富“内容菜单”,通过人机协同实现内容的多元化、个性化输送,利用 AI、声纹等智能识别和算法技术加强内容审核,优化算法推荐机制,增加短视频公众议题的推送量占比,让未成年人用户能够接触到多元化且具有教育意义的内容,让算法真正成为拓展知识结构的工具。
第四,完善未成年人隐私保护。短视频平台需要履行合规义务,设置全产品、全链条、全方位的保护措施,有效预防未成年人隐私信息泄露。在“监护人通知和授权同意”过程中,平台应就“是否开启未成年人模式”“是否允许被监护人发布作品并被推送”等问题征求监护人同意,保障账号使用过程中的隐私和内容安全,切实保护未成年人权益。目前,针对部分未成年人用户会从其他渠道违规获取账号或暂时未进行实名认证的情况,积极建立较为完备的疑似识别、引导和保护机制,实施对未成年人隐私信息的主动保护。
第五,践行知识普惠,做好科普教育。短视频平台可以通过与专业的科普机构和青少年教育机构开展合作,利用平台的产品与社区优势赋能科普内容,让更多的未成年人用户能通过短视频平台点燃科学热情。平台还可以完善激励机制,通过吸引更多优质科普机构、科学家及科普号入驻,发起线上科普音视频活动及线下青少年科学教育活动,激发青少年学习科学知识的兴趣,助力未成年人全面健康发展。
文章为社会科学报“思想工坊”融媒体原创出品,原载于社会科学报第1871期第4版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。
拓展阅读
关注 | 短视频摆拍,能还是不能?
生成式人工智能来了,如何保护未成年人? | 社会科学报