响应“清朗”行动,小红书上线《未成年人内容管理规范》
9月14日,小红书联合中国网络社会组织联合会(简称“中网联”)举办了“未成年人网络隐私保护”行业研讨会。来自中网联、中国社会科学院大学、中国政法大学、北京青少年法律援助与研究中心、未来网等机构专家学者参与了研讨。
研讨会围绕“未成年人网络隐私内容治理机制”等议题展开。在讨论分析利用互联网侵犯未成年隐私的现状与治理经验基础上,有针对性的探讨了侵犯未成年人网络隐私及其衍生的网络暴力的治理建议。
同一天,小红书在创作中心“规则百科”上线《小红书未成年人内容管理规范》,强调对七大类涉及未成年人的内容加强管理,保障未成年人安全使用社区产品。
未成年人网络隐私保护需要多主体联动
随着网络在未成年人渗透率进一步提升,加强未成年人网络保护成为社会热点。2021年6月1日正式施行的《中华人民共和国未成年人保护法》增设了网络保护专章。不久前有关部门表示,《未成年人网络保护条例》正在加快推出,为未成年人网络保护提供更加有力的法律保障。
为了使未成年人不良内容的治理规则更加清晰。小红书通过对家长、监管单位、行业专家、媒体等调研,在《社区公约》、《社区规范》基础上,单独上线了更加详细的《未成年人内容管理规范》,进一步强化了对未成年人的保护措施。
小红书未成年人内容管理规范
研讨会上,中国政法大学传播法研究中心副主任朱巍表示,“未成年人网络隐私保护需要平台、社会、家长等多主体联动,单靠一方肯定不行。平台是很重要的抓手,在对未成年人个人信息保护的同时,也需要不断加强内容治理。”
中国社会科学院大学互联网法治研究中心执行主任刘晓春认为,“内容平台需要建立针对未成年人的合规体系、投诉举报体系等等,进行预防性机制的设计,设立相应的机制处置。”
刘晓春研究发现,侵犯未成年人网络隐私背后往往有黑色产业链存在,常常从各个平台引流至聊天工具,这就要求各个平台之间进行协作,建立风险要素共享库,共同治理。相关单位之间也需要形成联动,同时加强家长、未成年人的网络素养教育,提升网络信息保护意识。
平台间协同治理也正在取得一些效果。不久前,小红书未成年人保护专项团队通过算法模型识别,发现一例侵犯售卖未成年人隐私内容的账号,其笔记发布页存在多张疑似偷拍未成年人的照片。调查发现,该用户在微信拥有同名公众号,并开设小程序商城,打包售卖未成年人隐私照片,形成了黑色产业链。
专项团队查证后,立即对该账号以及相应手机号和设备进行了封禁,并向微信团队进行举报,对其公众号与小程序商城进行封禁。同时,专项团队向公安机关报警。
主动提示未成年人隐私风险,暑期处理涉未成年人违规内容2.5万条
今年6月发布《未成年人网络保护现状研究报告》显示,未成年人信息泄露的原因主要包括未成年人身份特征较为明显、信息辨识和自控能力不足、父母或者其他监护人安全意识不强等等。
针对这一情况,朱巍建议,平台是未成年人监护的延伸,对未成年人的保护需要更强,如果家长无意间造成未成年人隐私信息泄露,平台可以进行相关提示。
针对创作者无意中发布包含未成年人隐私的内容,小红书治理团队对算法模型进行了升级,在检测到发布的内容中包含儿童隐私部位照片、身份证号、手机号等隐私信息时,平台会向用户发送站内信提示风险,并建议修改或撤回。
小红书对涉未成年人隐私内容的风险提示
北京青少年法律援助与研究中心执行主任于旭坤从六个方面对未成年人个人信息和隐私保护提出思考。其中包括,平台需要确立未成年人个人信息和隐私保护的原则与规则;并设立专人专岗负责,制定未成年人信息保护的制度,完善安全策略等等。
小红书首席风险官许磊透露,除刚刚上线的《未成年人内容管理规范》,小红书内部也形成了《未成年人网络隐私保护规则》,针对不同级别、不同类型问题,出台了不同层级治理标准。
今年初开始,小红书组建了包含运营、产品、研发、审核等多个部门的未成年人保护专项团队,建立相应的专门审核队列,对包括未成年用户模型、未成年年龄识别模式等多类模型进行了升级,大幅提高了计算机审核的效率与准确率。
今年7月18日,随着“清朗·2022年暑期未成年人网络环境整治”专项行动启动,小红书随即启动为期两个月的暑期未成年人网络环境专项治理。专项行动期间,小红书未成年人保护专项团队共处理涉及侵害未成年内容超2.5万条。
举报/反馈