“123579”,熟练地输入密码后,7岁的棒棒顺利解锁了手上的平板电脑,然后打开某短视频平台刷了起来……
如今,像棒棒这样的“小网民”越来越多。据统计,2020年我国未成年网民规模达1.83亿,未成年人的互联网普及率高达94.9%。
互联网在扩宽未成年人学习、交流空间的同时,也带来了诸如沉迷网络、遭受网络欺凌等问题。为强化未成年人网络保护,3月14日,国家互联网信息办公室就《未成年人网络保护条例(征求意见稿)》(以下简称征求意见稿)再次公开征求意见。
征求意见稿共7章67条,内容涵盖预防网络沉迷、个人信息保护、防治网络欺凌等。
北京德恒律师事务所合伙人、网络与数据研究中心主任张韬近日接受《法治日报》记者采访时指出,征求意见稿进一步细化并压实了网络平台的责任,有助于提高网络平台意识,将监管保护落到实处。
确保账号注册者使用者一致
谈起网络,很多家长又爱又恨,他们既希望孩子通过网络接触更多领域,又怕自制力差的孩子深陷其中。
为应对未成年人沉迷网络问题,征求意见稿明确了平台责任义务,要求网络产品和服务提供者应当建立健全防沉迷制度,不得向未成年人提供诱导其沉迷的产品和服务。
在中国互联网协会信用评价中心法律顾问赵占领看来,完善防沉迷制度,关键在于用户实名制的落实。
2021年8月30日,国家新闻出版署下发的《关于进一步严格管理切实防止未成年人沉迷网络游戏的通知》要求限制向未成年人提供网络游戏服务的时间,严格落实网络游戏用户账号实名注册和登录。
但在实际中,由于部分平台在进行实名注册时的身份认证程序要求较为简单,非常容易被“绕过”。张韬指出,网络天然的虚拟特性容易出现实际上网过程中实名者和使用者不一致的情况,且网络服务以手机App形式较为常见,给未成年人提供了便捷、可独立操控的上网渠道。比如,一些未成年人使用长辈身份信息或购买成年人身份信息就可以轻易绕过实名认证。
“落实用户实名制,不仅要实名注册,还要进行实名认证,防止假冒他人身份、借用他人身份进行注册登记,以及未成年人租用、购买成年人的账号进行使用。”赵占领指出,这就要求在用户注册时不仅要提供身份证照片或手持身份证的照片,还应加入人脸识别验证,对于网络游戏而言,不仅注册时要进行人脸识别,在登录时也应进行验证,以确保账号的注册者与使用者一致。
在今年的全国人大会议上,也有全国人大代表提出了类似观点。
全国人大代表、湖南科力尔电机集团股份有限公司董事长聂鹏举建议优化网络游戏实名认证流程,引入人脸识别双重检验程序。
“不仅要在注册账号时对提交实名认证的身份信息的真实性进行检验,还应在后续游戏运营中提高对身份信息的检验频率。”聂鹏举建议每次登录游戏都应进行人脸识别,以检验注册时认证的身份信息与账号使用者是否匹配,充分发挥限制未成年人游戏时段时长的作用。
“让网络实名制和未成年人游戏防沉迷系统真正得到有效落实,需要家庭、学校和社会共同配合、多管齐下。”张韬注意到,征求意见稿除明确平台建立健全防沉迷制度的责任义务外,也提出了要加强学校、监护人对未成年人沉迷网络的预防和干预。比如提高教师对未成年人沉迷网络的早期识别和干预能力,加强监护人对未成年人安全合理使用网络的监督等。
落实网络实名制,还需要注意的一个关键点就是未成年人的个人信息被滥采滥用等问题。张韬指出,征求意见稿对此明确要求个人信息处理者采取充分必要和严格的措施保护未成年人的个人信息,这将有效减少网络实名制的弊端。
制定统一的青少年模式标准
针对未成年人沉迷网络游戏,征求意见稿提出网络游戏服务提供者应当落实适龄提示标准规范,根据不同年龄阶段未成年人身心发展特点,通过评估游戏产品的类型、内容与功能等要素,对游戏产品进行分类的要求。
在今年的全国人大会议上,全国人大代表、四川省广元市苍溪县白驿镇岫云村党支部书记李君提出尽快建立网络游戏分级制度的建议。
“要制定适合我国国情的网络游戏分级制度,使不同年龄阶段的人玩不同等级的游戏。”李君认为应尽快完善网络游戏市场监管机制,明确网络游戏相关职能管理部门职责分工,对游戏分级、内容审核等方面监管落实到位,形成以法律法规、行政监督、行业自律和技术保障为核心的管理体制,强化网络游戏监管力度。
赵占领补充指出,还应明确可能影响未成年人身心健康信息的具体种类、范围、判断标准和提示办法。对于网络游戏、网络直播、网络音视频的青少年模式,也应制定统一的标准,包括进入青少年模式后展示的信息以及退出青少年模式的方式等。
出现网络欺凌可以关闭账号
性格开朗活泼的初一女生,却因为某公众号的恶意造谣,被指认为“渣女”,最终被迫向公众号付费删帖……这样的事就发生在我们身边。
“和传统校园欺凌相比,网络欺凌对未成年人的伤害可能会更大。”赵占领指出,网络欺凌一般是指通过手机、电脑等设备,采用传播谣言、威胁、骚扰等方式,故意且重复对他人进行攻击。这种方式不受空间、地点等限制,且信息会在网上广泛迅速地传播,给当事人带来极大的负面影响和心理负担。
针对网络欺凌问题,全国人大代表、北京金诚同达(西安)律师事务所主任方燕在今年的全国人大会议上建议在法律法规中完善网络平台以及网信部门的管理责任,并对网络信息进行事先审查和过程监督。要通过人工智能等方式,对图片、文字、语音等进行识别,过滤显而易见的违法侵权信息,对于其他较为隐蔽的侵权信息,可由受害人通知后,平台采取删除、屏蔽、断开链接等措施。
记者注意到,征求意见稿规定任何组织和个人不得通过网络以文字、图片、音视频等形式,对未成年人实施侮辱、诽谤、威胁或者恶意损害形象等网络欺凌行为。同时,明确了网络平台的责任义务,要求网络产品和服务提供者应当设置便利未成年人及其监护人保全遭受网络欺凌证据、行使通知权利的功能、渠道。遭受网络欺凌的未成年人及其监护人有权通知网络产品和服务提供者采取删除、屏蔽、断开链接、限制账号功能、关闭账号等必要措施,网络产品和服务提供者接到通知后,应当及时采取必要措施予以制止,防止信息扩散。
“此前出现网络欺凌,平台一般只能施以警告或扣除用户一些信誉积分,并没有赋权关闭账号这一功能。”在张韬看来,赋予网络平台关闭账号等治理措施能够在最短时间内避免网络欺凌事件造成更广泛传播,及时避免未成年人的个人隐私和信息在更大范围内泄露,这是征求意见稿的一大亮点。
张韬指出,在具体执行中,网络服务提供者应将制度落实,通过设置重点监控和及时筛查机制对网络欺凌行为早发现、早制止、早处置。实施关停账号后对于账号内相关证据的存储、保全应当建立合理的保管机制,积极配合有关部门的调查。
针对网络欺凌等给受害者带来的精神伤害,方燕建议加强对受害人精神损害赔偿的救济,明确《最高人民法院关于适用〈中华人民共和国刑事诉讼法〉的解释》第一百七十五条第二款规定中“应当受理精神损害赔偿”的特殊情形。
方燕认为,未来可由最高法通过指导性案例或批复、答复的形式加以明确。例如,对经过专家诊断有精神上遭受重创的诊断结论、需要进行心理康复治疗的受害人,应当认为属于可以提起精神损害赔偿的范畴。(记者 赵晨熙)
资讯推荐