腾讯防沉迷不给力?其实这已经是全球最严的了

来源:A5专栏 时间:2021-08-05

游戏行业再次站上了风口浪尖。

耐人寻味的是,上一次,游戏被称为“电子鸦片”和“精神毒品”的时候,还是杨永信和陶宏开们横行网络的十多年前。

8月4日,腾讯发布了一则《王者荣耀》的健康系统升级公告,公告依据国家新闻出版署《关于防止未成年人沉迷网络游戏的通知》相关规定,为进一步加大未成年人的保护力度,升级了《王者荣耀》的健康系统规则。

此番升级后,同时在游戏时长、游戏消费和游客模式三个维度对未成年人防沉迷制定了严格的规则,这也是在2017年腾讯上线国内首个面向未成年人健康游戏的解决方案“成长守护平台”、“健康系统”和“少年灯塔主动服务工程”以来,又一次对于未成年人健康游戏上网的重大举措和升级。

客观的说,这次升级也体现出,腾讯作为一家商业公司,一直以来积极推动建立未成年人健康上网、游戏保护体系的社会责任。事实上,我们回顾全球文娱行业近百年的发展,无论是在全球游戏业界,还是对比国际上在游戏业界之前音乐、影视等其他领域对未成年人保护的探索,腾讯的一系列举措都是极具开创性,堪称全球最为严格的未成年人防沉迷系统。

即使如此,这种严格的防沉迷系统,依旧还在不停地的进化升级当中。而关于游戏有害的论调,亦能从更理智的视角来分析和思考。

娱乐工业对未成年人保护制度的探索

针对娱乐工业产品,如电影、音乐是否对大众有害,并为此提供保护这一理念,起源于上世纪的美国。

当时首当其冲的,是影响力巨大的好莱坞电影。因为电影内容中涉及到的性、暴力和宗教等原因触犯部分人士甚至某社区多数人的审美和道德价值观,所以从1930年代开始,美国各大制片厂组成的行业协会定有“电影制作守则”,所有电影必须通过协会的审批,这是当时制定的一种行业自律的行为。

随着社会道德标准的不断演变,昔日更为强调宗教、道德因素的“电影审查制度”,因为上世纪六十年代的民权运动的影响,特别是1965年美国最高法院判例确定电影受宪法第一修正案保护,让这种审查制度逐步转型为电影协会自主进行的针对观众年龄层划分的自愿分级制度,旨在及时帮助家长做出是否适合他们的孩子观看某部电影的决策。

在现行的美国电影分级制度中,G级、PG级和PG-13级基本为未成年人可以观看,而R级影片未满十七岁人士必须由家长或成年监护人陪同观看,最为严苛的NC-17级影片是禁止未成年人观赏的。类似的还有美国电视分级制度,分为TV-Y7、TV-G、TV-PG、TV-14和TV-MA等五个等级,其中TV-MA原则上是未成年人不得观看的,近年来发展蓬勃的互联网流媒体视频在美国也采取的是电视分级制度。

和美国电影电视业类似,美国唱片业协会在1985年提出了“家长指导标识”,在我国音乐行业内俗称为“脏标”,是在音像制品上的一种警告标识,代表了其中的音乐或录音作品出现了脏话或其他敏感词汇,提醒家长不要购买或提供给未成年人收听播放。该标识在音乐产品发行进入互联网流媒体时代后被延续,在Apple Music等流媒体音乐平台上都提供了“家长指导标识”的标签,很多唱片公司和音乐人为了避免自己的作品被限制传播都会发行“洁版”,删掉敏感词汇。

然而,以上相关的制度在我国的对应行业暂时都还没有建立。

如果说过去的电视电影分级制度和“脏标”,针对的是在家观看电视频道,或者去电影院、唱片店买票买唱片,都是一种线下的物理消费行为,在家有家长管束,到电影院和唱片店可以像酒吧一样查未成年人的身份证。

那么,随着互联网流媒体的逐渐强势,这样的管理和保护手段明显跟不上时代了。以Netflix、Spotify等为代表的互联网视频、音频流媒体服务商,包括一些海外的游戏服务商,并未在技术层面建立针对未成年人的保护、检查机制,原有的分级制度面对互联网很多时候已经沦为一纸空文。

新的防沉迷手段,诞生在游戏领域也就成为了必然。而这其中,中国游戏行业在防沉迷的不断探索和创新之下,已经逐渐成为全球相关领域的开拓者和引导者。

腾讯未成年人保护体系是如何建立的?

正如前文所述,无论是Netflix、Spotify等流媒体服务商,还是海外的一些提供游戏平台服务的公司,他们对于互联网时代,自己的服务是否会让未成年人更容易接触到,或者防止未成年人毫无节制沉迷娱乐方面,基本上是毫无作为的。

相比之下,国内最具代表性的腾讯公司,在这方面走在了他们的前面。

2017年,腾讯着手在自己的游戏服务领域建立起完整的未成年人保护体系和未成年人健康上网解决方案,构建了包括【事前设置】(成长守护平台)、【事中管理】(健康系统)、【事后服务】(少年灯塔主动服务工程)等涵盖游戏行为全环节的未成年人健康上网保护体系。尤其是其中堪称典范的健康系统,引入了公安实名校验、人脸识别验证等前沿技术,对未成年人游戏账号执行严格的游戏时长限制。

2018年,系统升级进入2.0阶段,接入了公安权威数据平台校验。对于登记为未成年的用户,设定了限时限充的规则,初步实现了防沉迷系统的精确量化。2020年6月,3.0版本上线,基于健康系统,深化人脸识别技术的应用:当疑似由未成年人操作的成年人帐号月充值大于400元时,或用户出现异常充值行为(如短时间充值金额激增等)时,即会被要求进行人脸识别验证。拒绝或未通过验证的用户,则无法继续充值。其中大部分技术都比国家相关规定提前一步实现了更严密的监管。

此前,腾讯在实施这项技术时遭遇的一大难题是无法识别未成年人的消费,以及对于未成年人非理性消费的应对。经过一段时间的技术升级和论证,腾讯通过人脸识别技术在某种程度上正一步步突破这一难题。

我们对比Netflix、Youtube和Spotify,乃至苹果等国外的互联网内容服务商会发现,他们的方式就是让家庭用户中的父母自己创建家长和未成年人的不同账户,家长账户能够约束未成年人账户的权限,但这种简单粗放的方式,就好像小时候偷摸看电视都知道怎么和父母斗智斗勇一样,现在的未成年人拿到父母账号的密码简直轻而易举。

而腾讯采取从个人QQ/微信账号实名认证到人脸识别再到限制充值权限等一套组合拳,在技术层面就做好了针对未成年人保护所能做到的各种手段。这方面,腾讯不仅走在了国外的互联网公司的前面,也走在了国内整个文娱行业的前面。

至于腾讯这样大力地推行未成年人保护体系,在营收层面到底有没有什么影响呢?

在今年年初公布的2020年Q4财报中,腾讯首次公开了未成年人的相关数据。和外界腾讯依赖未成年人用户的印象相比,实际上腾讯游戏16岁以下未成年人的占比仅为3.2%,可以估算当季度16岁以下未成年人付费总额为9.376亿,相当于人均付费44.64元,也就是每月14.88元。

用个通俗易懂的比喻来说,那就是连一般游戏里30块的皮肤都买不起。至于为了实现未成年人保护体系增加了多少成本?按照腾讯云单次人脸识别最低0.68元的价格来计算,每天730万次人脸识别相当于496.4万元的成本,一年下来就是18.12亿元!这还只是人脸识别这一个功能,其他配套系统的成本加起来,肯定是一个投入远大于收益的行为。

而仅仅一个人脸识别这一技术的应用,同时也引发了一些人对于隐私的担忧。这对于腾讯来说,显然是得不偿失。但这依旧没有改变腾讯对于防沉迷越来越严格的升级迭代。

总而言之,腾讯用一系列看起来对于游戏公司来说“没意义”的烧钱开发防沉迷系统,甚至主动断臂一般地限制未成年人的消费降低自己的收益,其实恰恰向外界充分证明了,腾讯并不会依靠来自未成年人的收入谋求自身的发展。

而关于未成年沉迷游戏的现象,这是整个社会和家长以及厂商多方都需要共同重视的问题。

歪道道,互联网与科技圈新媒体。同名微信公众号:歪道道(daotmt)。本文为原创文章,谢绝未保留作者相关信息的任何形式的转载。

相关文章

A5创业网 版权所有

返回顶部