张一鸣发言的钟邈邈!平台应该对“谣言”负有什么责任?

2024-11-25

算法正在驱使每个人。


近日,农夫山泉创始人钟邈邈在江西赣州参观当地脐橙产业园时,谈到了上半年遭遇的网络暴力、制作绿瓶水的创作背景以及对网络直播的看法,信息量很大。


在此期间,钟邈抛出的话语足以称得上是“惊人的语言”,尤其是“网络暴力”和“网络算法”两个话题的表达,在全网不断发酵,引发热议。


今年 3 月,农夫山泉和他自己受到了公司成立以来最严重的黑客攻击。他认为,这种网络暴力的背后是算法的应用,也就是说,有些人使用算法来屏蔽多角度的消息。


“当你打开这些平台时,你总是会看到同样的内容。有些人使用技术手段,这些人造成的伤害远远超过普通人造成的伤害。政府需要站出来主持公平,这需要社会遏制。”钟邈邈认为。


他还质疑,是否所有的反派都需要在谣言中制造对立,就像好莱坞电影中常见的那样?没有这样的对立,有些平台似乎很难持续获得流量。如果是这样,他认为这样的平台极其恶劣。


“算法的邪恶是由知识渊博的人创造的,而不是底层人民。普通人仍然是受害者。那些骂钟娣的人不是既得利益者,他们也是受害者。他们怀有仇恨,因为他们不知道真相。事实上,我们需要的是良好的商业环境和对企业家的尊重。”钟邈邈说。


“请停止对一名中国公民的侵害,”钟邈邈在演讲中直言不讳!


算法“理解”客户并不难。短视频平台的推荐算法,以抖音为首,会根据用户的行为数据(如观看历史、点赞、评论、分享等)分析用户的喜好。),并推荐相关信息。


该算法推荐逻辑不仅提高了用户的满意度和保留时间,而且直接提高了平台的流量和商业价值。


由于人性,算法正在“操纵”人性。


算法就像一个眼睛明亮的怪物。它围绕着侧面,一味地猜测和取悦客户。通过精准的运算推送,用户的信息越来越受到个人喜好的影响,排除了与自己兴趣和想法不同的信息,客户被引入偏见狭隘的信息领域。


通过抖音等短视频平台,依靠算法推荐进行短视频内容分发,无数客户在不知情的情况下陷入“信息茧房”。


张一鸣曾经有一句名言:“算法没有价值”。


诚然,算法没有情感,没有立场,没有思想,但是控制算法或者设计算法的人会有。


在相关程序中,算法设计者会受到个人立场的影响,将所携带的主观价值判断和行为决策嵌入其中。


算法设计师倾向于在“流量为王”的传播环境中,赋予更容易赢得用户关注的低俗劣质信息更多权重。


随着算法与外部环境的互动,谣言和负面新闻将被应用,推荐给用户,形成反馈循环,进一步加强原有的社会偏见。这进一步加剧了不同立场之间的隔阂、对立、误解和撕裂。


例如,在算法的推荐下,将红色瓶盖与日本国旗联系起来,“农夫山泉的山是富士山”,成为一场流量盛会。


只需短片标签上带有“农夫山泉”和“钟邈邈”,就可以被算法推荐给更多的人,获得流量。


算法疯狂推荐了大量的谣言、阴谋论视频,直接带动了顾客的情绪和思想。


借助算法,这种网络暴力也直接关系到农夫山泉的表现。


农夫山泉半年报显示,2024 年 1 月份和 2 月份,集团包装饮用水产品销售情况良好,两个月的销售收入较去年同期有所增长。 19.0%。


但自今年 2 从月底开始,网络上出现了大量的舆论攻击和恶意诋毁,对农夫山泉和钟邈邈的品牌和销售产生了很大的不利影响。2024年 2008年上半年,集团获得了人民币的包装饮用水产品。 85.31 与去年同期相比,亿元减少。 18.3%。


所以,在算法的帮助下,传播谣言,网络暴力,网络平台究竟应该承担责任吗?


“任何在盈利平台上发布的谣言,平台都应该承担法律责任,这就像我是一家生产假货和销售假货的制造企业一样。”


“谁受益,谁负责”的逻辑线非常清晰。在算法的加持下,流量业务的最大受益者无疑是平台。那么,平台就应该对谣言和网络暴力负责。


“避风港原则”不能用任何所谓的“避风港原则”来搪塞。


简单地说,“避风港原则”就是,网络平台在接到通知后及时删除侵权内容不需要承担责任,否则就要承担责任。


事实上,除了“避风港原则”之外,法律还有一个原则,专家学者称之为“红旗原则”。


“红旗原则”是指当侵权事实不言而喻,像“红旗飘舞”时,网络服务提供商不能假装看不见,也不能以不知道侵权为由推卸责任。在这种情况下,即使权利人没有发出删除通知,网络服务提供商也应承担侵权责任。


一些法人解释说,“避风港原则中的‘通知规则’与红旗原则中的‘知道规则’在司法适用上存在并列关系。”


对农夫山泉和钟邈邈的网络暴力复工完全符合红旗原则。作为一个平台,谣言短视频是通过算法推荐给大量用户的,甚至形成了霸屏的趋势。谣言已经像红旗一样飞舞了。


更糟糕的是,对于制作谣言的短视频,平台还给予了相关话题的高流量内容现金奖金,进一步刺激了录制谣言视频的动力。


凯斯,芝加哥大学教授•R•桑斯坦在他的作品《信息乌托邦》中指出了“信息茧房”的概念,即“因为公众自身的信息需求不是全方位的,公众只关注自己选择的物品和让自己快乐的通信领域,从长远来看,他们会像蚕茧一样束缚自己。”


显而易见,这一算法推荐机制加速了因特网“信息茧房”的建设。


随着算法的不断迭代,即使是同一个短视频内容,不同用户看到的评论区域也是“可控”的,进一步推动了客户的观点。


评论区应该是不同观点的自由表达,但在算法控制下,每个用户都优先考虑与自己意见一致的同质化评论,这不仅限制了客户的认知,也加强了偏见。进一步加剧了不同立场之间的隔阂、对立、误解和撕裂。


任由算法,我们每个人都将被推入“信息茧房”的深渊。


“技术中性”不能等同于“价值中性”,不能使价值观成为算法技术的附庸。


毫无疑问,算法推荐是一个价值观问题。技术可能没有价值观,但作为技术发明者和控制者,没有价值观是不可能的。


近几年来,在算法的帮助下,网络暴力层出不穷,甚至导致了自寻短见、坠楼等人间悲剧。


针对算法推荐造成的诸多乱象,相关监管部门频繁采取多种措施——约谈、惩罚整改、永久下架、暂停算法推荐功能等。


算法推荐不仅仅是一个价值问题,更是一个法律问题。需要纠正“流量为王”的价值观,引导算法推荐的设计和应用,以积极健康、符合公序良俗的价值观。


应用算法不仅需要技术本身的中立性,还需要法律和社会规范来约束其背后的人和平台企业。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com