开设青少年模式只是其中之一,Soul采取多种措施保护未成年人!

2023-06-06

未成年人属于弱势群体,身心不成熟,认知能力和控制能力较弱。他们没有完全的风险防范意识,很容易被罪犯“盯上”。他们以胁迫和诱导的形式欺骗未成年人,使未成年人陷入犯罪陷阱。未成年人缺乏自我保护意识,特别是在网络上,容易上当受骗。保证青少年安全上网,减少虚假、不良信息对其身心的腐蚀,加强对未成年人的保护刻不容缓。现在,多个因特网平台纷纷更新青少年模式,保护他们的网络安全。Soul作为一个受到年轻人青睐的新型开放式社交平台,在未成年人保护方面也形成了一套比较完善的机制。


提供青少年模式加强智能和人工检查


因特网上的信息混杂,网络上的灰色信息无处不在。例如,许多网站在显著位置投放不良广告,很容易给青少年带来错误的引导。


青少年通过诱导链接接触不良信息已经成为一种普遍现象。从2021年6月1日起,中国新修订的《未成年人保护法》正式实施。附加的《网络保护》章节明确指出,网络游戏、网络直播、网络音视频、网络社交等网络服务提供者应设置相应的时间管理、权限设置、消费管理等功能。为未成年人服务。


该法案正式实施之前,Soul等因特网平台已经很早就开始行动,为未成年人的网络冲浪构建绿色安全网络。比如,Soul APP要求18岁以下的客户不能注册,新注册的用户进入平台需要实名认证。如果确定客户是未成年人,他们就不能进入成年人。现在,Soul上的未成年客户是过去的存量用户,而且占比非常低。这些顾客只能在青少年模式下使用商品,不同于成年顾客。


此外,Soul已经建立并完善了客户举报机制,其官方账号Soul官方纪律领导鼓励客户共同监督和举报假成人,定期宣传“未成年人保护重点”的治理成果,积极保护未成年用户的安全。除了报告系统,Soul还通过智能检查和人工检查(如建立“护星队”加强日常检查)寻找疑似未成年人的相关信息,并引导其进行实名认证。通过举报和检查发现的疑似未成年客户将被限制使用相关功能,并硬性要求实名认证。如果认证结果是未成年人,将自动进入车站青少年模式,成年前不能主动退出;如果认证结果是成年人,其功能限制将被消除,未成年人模式将不会进入。


逐步完善风控系统的内容提高未成年内容识别模型


当网上有心怀不轨的人接近青少年时,青少年通常看不清别人的伪装,所以很快就会陷入陷阱。如果他们不能及时阻止他们,他们就会越陷越深。现实中,这种诱导青少年提供不当内容的情况并不少见。犯罪分子的奸诈行为难以防范,一些青少年会因为冒用成人身份而误入犯罪分子的陷阱。


因此,“假成人”的识别和信息障碍也考验了平台的能力水平。据了解,多个互联网平台通过技术手段完善了内容风险控制体系,增强了“假成人”的识别能力。


据了解,目前Soul依托自身技术能力打造的未成年内容识别模型,可以识别客户在兴趣群聊、群聊聚会、内容广场等公共领域发布的文字、语音、图片等信息的心理特征,并结合人工判断识别未成年人。


同时,在群聊等一对多场景中,如果很多客户同时提到未成年元素,辅以人工判断,识别隐性未成年人。在设备识别方面,对于过去在“青少年模式”下使用商品的设备,账户注销后新注册的账户仍然与“青少年模式”直接相关。客户只有提交详细材料,证明自己是成年人,才能退出“青少年模式”,正常使用商品。


此外,Soul平台还从人工方案和智能模型策略两方面进行管理,有效识别和阻挡软色情等灰色信息,严肃处理非法账户。不断优化迭代的策略模型,就像一面镜子,让各种不良信息尽显原型。此外,如果在Soul上遇到类似的不良信息,可以采取检查措施,也可以通过平台内各种情况的反馈渠道进行反馈投诉。


随着“假成人”识别和青少年模式的有效实施,Soul全平台的内容生态治理措施使平台能够有效阻断不良信息的传播链,及时切断可能延伸到未成年用户的“黑手”。


对青少年模式下的内容严格监督。不断优化青少年模式内容池


有些“文学网站”、“阅读软件”,虽然内容本身没有问题,但是在广告栏里放了一些信息却故意喊着擦边球,甚至涉嫌违法,对还处于青春期的孩子产生了不良影响。


互联网是青少年学习知识和了解社会的便捷方式,但它给那些不择手段牟利的人带来了便利。因此,互联网公司在落实未成年人保护的本质阶段,要特别对未成年网友负责,不要马虎,不要敷衍。


值得一提的是,Soul在严格监督青少年模式内容的同时,通过青少年模式将未成年用户与成人客户的功能和内容隔离开来,不断优化青少年模式内容池,旨在为青少年提供更多高质量、正能量的内容。


在青少年模式下,未成年客户热搜广场下的话题呈现也以高质量的创作内容作为固定呈现。在高质量内容的影响下,青少年和儿童成长为真正理想和抱负的新一代,社交、知识和兴趣。


此外,Soul还推出了青少年防沉迷机制,严格限制了青少年模式中用户的使用时间。限制包括以下两个部分:限制未成年客户每天累计登录时间和日常使用时间点。Soul限制了青少年模式下未成年用户当天的累计时间,累计时间不超过40分钟。当使用时间超过限定标准时,平台会锁定当前页面,弹出提示文案:“亲爱的Souler,你的使用时间已经达到了40分钟。根据青少年模式规则,今天不能继续使用。请休息一下。~”


同时,Soul要求未成年客户只能在规定时间内(8),以帮助未成年客户更好地保护健康,并在第二天正常学习生活,减少对互联网的依赖。:00~22:浏览平台00)。


随着暑假的到来,Soul开始关注未成年人的保护,进一步加强和完善未成年人的保护。未来,Soul还将定期开展类似“青年联络官”的活动,邀请各行各业积极向上、积极向上的青年榜样,与青少年分享自己的故事,与Z世代进行深入交流,不断向青少年客户导出积极内容,让青少年成为互联网技术发展的受益者。


随着互联网的普及,未成年人更容易获取各种信息,他们可能无法区分信息的质量。因此,互联网平台应该更加关爱和保护他们,为他们编织一个“安全网”,创造一个“安全盾”,让他们拥有一个绿色的网络环境。作为年轻人青睐的社交平台,Soul采取了许多保护措施来保护未成年人。



上一页 1 2 3 4 5 下一页 查看全部

未成年人属于弱势群体,身心不成熟,认知能力和控制能力较弱。他们没有完全的风险防范意识,很容易被罪犯“盯上”。他们以胁迫和诱导的形式欺骗未成年人,使未成年人陷入犯罪陷阱。未成年人缺乏自我保护意识,特别是在网络上,容易上当受骗。保证青少年安全上网,减少虚假、不良信息对其身心的腐蚀,加强对未成年人的保护刻不容缓。现在,多个因特网平台纷纷更新青少年模式,保护他们的网络安全。Soul作为一个受到年轻人青睐的新型开放式社交平台,在未成年人保护方面也形成了一套比较完善的机制。


提供青少年模式加强智能和人工检查


因特网上的信息混杂,网络上的灰色信息无处不在。例如,许多网站在显著位置投放不良广告,很容易给青少年带来错误的引导。


青少年通过诱导链接接触不良信息已经成为一种普遍现象。从2021年6月1日起,中国新修订的《未成年人保护法》正式实施。附加的《网络保护》章节明确指出,网络游戏、网络直播、网络音视频、网络社交等网络服务提供者应设置相应的时间管理、权限设置、消费管理等功能。为未成年人服务。


该法案正式实施之前,Soul等因特网平台已经很早就开始行动,为未成年人的网络冲浪构建绿色安全网络。比如,Soul APP要求18岁以下的客户不能注册,新注册的用户进入平台需要实名认证。如果确定客户是未成年人,他们就不能进入成年人。现在,Soul上的未成年客户是过去的存量用户,而且占比非常低。这些顾客只能在青少年模式下使用商品,不同于成年顾客。


此外,Soul已经建立并完善了客户举报机制,其官方账号Soul官方纪律领导鼓励客户共同监督和举报假成人,定期宣传“未成年人保护重点”的治理成果,积极保护未成年用户的安全。除了报告系统,Soul还通过智能检查和人工检查(如建立“护星队”加强日常检查)寻找疑似未成年人的相关信息,并引导其进行实名认证。通过举报和检查发现的疑似未成年客户将被限制使用相关功能,并硬性要求实名认证。如果认证结果是未成年人,将自动进入车站青少年模式,成年前不能主动退出;如果认证结果是成年人,其功能限制将被消除,未成年人模式将不会进入。


逐步完善风控系统的内容提高未成年内容识别模型


当网上有心怀不轨的人接近青少年时,青少年通常看不清别人的伪装,所以很快就会陷入陷阱。如果他们不能及时阻止他们,他们就会越陷越深。现实中,这种诱导青少年提供不当内容的情况并不少见。犯罪分子的奸诈行为难以防范,一些青少年会因为冒用成人身份而误入犯罪分子的陷阱。


因此,“假成人”的识别和信息障碍也考验了平台的能力水平。据了解,多个互联网平台通过技术手段完善了内容风险控制体系,增强了“假成人”的识别能力。


据了解,目前Soul依托自身技术能力打造的未成年内容识别模型,可以识别客户在兴趣群聊、群聊聚会、内容广场等公共领域发布的文字、语音、图片等信息的心理特征,并结合人工判断识别未成年人。


同时,在群聊等一对多场景中,如果很多客户同时提到未成年元素,辅以人工判断,识别隐性未成年人。在设备识别方面,对于过去在“青少年模式”下使用商品的设备,账户注销后新注册的账户仍然与“青少年模式”直接相关。客户只有提交详细材料,证明自己是成年人,才能退出“青少年模式”,正常使用商品。


此外,Soul平台还从人工方案和智能模型策略两方面进行管理,有效识别和阻挡软色情等灰色信息,严肃处理非法账户。不断优化迭代的策略模型,就像一面镜子,让各种不良信息尽显原型。此外,如果在Soul上遇到类似的不良信息,可以采取检查措施,也可以通过平台内各种情况的反馈渠道进行反馈投诉。


随着“假成人”识别和青少年模式的有效实施,Soul全平台的内容生态治理措施使平台能够有效阻断不良信息的传播链,及时切断可能延伸到未成年用户的“黑手”。


对青少年模式下的内容严格监督。不断优化青少年模式内容池


有些“文学网站”、“阅读软件”,虽然内容本身没有问题,但是在广告栏里放了一些信息却故意喊着擦边球,甚至涉嫌违法,对还处于青春期的孩子产生了不良影响。


互联网是青少年学习知识和了解社会的便捷方式,但它给那些不择手段牟利的人带来了便利。因此,互联网公司在落实未成年人保护的本质阶段,要特别对未成年网友负责,不要马虎,不要敷衍。


值得一提的是,Soul在严格监督青少年模式内容的同时,通过青少年模式将未成年用户与成人客户的功能和内容隔离开来,不断优化青少年模式内容池,旨在为青少年提供更多高质量、正能量的内容。


在青少年模式下,未成年客户热搜广场下的话题呈现也以高质量的创作内容作为固定呈现。在高质量内容的影响下,青少年和儿童成长为真正理想和抱负的新一代,社交、知识和兴趣。


此外,Soul还推出了青少年防沉迷机制,严格限制了青少年模式中用户的使用时间。限制包括以下两个部分:限制未成年客户每天累计登录时间和日常使用时间点。Soul限制了青少年模式下未成年用户当天的累计时间,累计时间不超过40分钟。当使用时间超过限定标准时,平台会锁定当前页面,弹出提示文案:“亲爱的Souler,你的使用时间已经达到了40分钟。根据青少年模式规则,今天不能继续使用。请休息一下。~”


同时,Soul要求未成年客户只能在规定时间内(8),以帮助未成年客户更好地保护健康,并在第二天正常学习生活,减少对互联网的依赖。:00~22:浏览平台00)。


随着暑假的到来,Soul开始关注未成年人的保护,进一步加强和完善未成年人的保护。未来,Soul还将定期开展类似“青年联络官”的活动,邀请各行各业积极向上、积极向上的青年榜样,与青少年分享自己的故事,与Z世代进行深入交流,不断向青少年客户导出积极内容,让青少年成为互联网技术发展的受益者。


随着互联网的普及,未成年人更容易获取各种信息,他们可能无法区分信息的质量。因此,互联网平台应该更加关爱和保护他们,为他们编织一个“安全网”,创造一个“安全盾”,让他们拥有一个绿色的网络环境。作为年轻人青睐的社交平台,Soul采取了许多保护措施来保护未成年人。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com