大型军备比赛远未结束,但注定要成为少数人的游戏。

2024-06-13


编者按


互联网正在被重塑,改变这一切的是A。几十年来,互联网意味着搜索和查看它已经成为我们获取信息的习惯,所以很少有人质疑这种方法是否合理。


AI正以超乎人们想象的速度改变这一切。新一代 A驱动的搜索引擎更容易获取信息。它只提供答案,不再需要我们寻找答案。与此同时,网络上开始充斥着大量的AI生成质量可疑的内容,污染了搜索结果,使得搜索不再那么可靠。


搜索引擎的变化


在过去的20年里,全球搜索引擎的市场结构一直比较稳定,很少有突破性的创新,大模型的出现带来了革命性的机遇。


传统的搜索方法是搜索引擎在输入关键字或问题后提供最相关的结果。为了获得有用的信息,用户必须自己筛选并逐个打开链接,然后花时间阅读和总结。从输入一个关键词到得出结论,整个搜索过程需要时间,估计客户得到想要的结果至少需要几分钟。


这种效率显然不高,客户不得不排除竞价排名广告等其他因素的影响。尤其是随着移动互联网推荐系统的兴起,越来越多 C 终端用户搜索次数下降,在中国市场尤为明显。人们已经开始将小红书、微信、微博等一系列社交平台作为新的搜索引擎。


怎样让大家重新回到搜索引擎?近年来,谷歌、百度都陷入了困境。


毫无疑问,谷歌在搜索领域仍然占据主导地位,在全球搜索引擎市场中仍占有90%的份额。 (百度占据了中国市场的约约 60% 的份额) 。然而,越来越多的用户,尤其是Z世代的客户,已经变得更喜欢在谷歌以外的地方获取信息。根据相关机构的研究数据,这个数字已经达到。 40%。


造成这种情况的原因有很多:随着搜索引擎广告业务的不断增加,有用的搜索结果在页面上的位置越来越低,而广告的位置越来越高。此外,搜索引擎优化(SEO)麻烦,许多垃圾信息挤出了相关的搜索结果,只是为了能够在搜索引擎中名列前茅。


在此之前,谷歌已经开始将来了。 TikTok 等待社交平台的更多内容直接整合到搜索结果中。百度上,人们还可以从小红书中找到内容。Google Bard(后更名为 Gemini)随着文心一言的发布,用户在搜索某些内容时,可能会收到一个清晰自然的语言答案,由人工智能编写。


但是问题接踵而至。此后,谷歌的人工智能产生了一系列虚假和错误的信息——例如,建议在披萨食谱中加入胶水,或者吃石头来补充营养。虽然我们都知道人工智能不可避免地会出错,但当这些错误与人们长期信任的搜索引擎相结合时,它们的影响远远超过了与聊天机器人交谈时发现它们“不知道该怎么办”。 产生的负面感觉。许多专家担心,世界上最重要的知识引擎突然充斥着不可靠甚至危险的谎言,会带来不可逆转的困境。


乐观主义者表示,虽然人工智能提供的答案并不完美,但人们可以比以往任何时候更有效地浏览他们需要的信息。他们认为错误的信息只是一个短期问题,随着时间的推移,它会变得越来越准确。


为解决这个问题,有许多问题 AI搜索开始在答案中添加信息源进行搜索,以确保答案可追溯性、可验证性和可靠性。信息源的引入部分解决了大模型幻觉和可解释性不足的问题,改善了人们的使用。 AI的自信。另外,这样的“学院派”功能也特别适合那些把搜索引擎作为生产工具的用户。


昆仑万维董事长兼 CEO 方汉认为,中国移动互联网群雄割据,大量娱乐方向轻微内在。 每一个巨人的平台都可以容纳,但是一些严肃内容的公开程度反而更高。万维天工昆仑 AI 目标群体,即那些将搜索作为生产力工具的人,包括媒体、科研、投研等方面的人。基于广告的传统搜索巨头生存的商业模式很难支持。 AI 搜索的颠覆性创新,而大型搜索在提高每个人生产力方面的创新,有望带来新的收费模式。


事实上,互联网现在面临的问题可能和 AI 搜索的准确性无关紧要。令人担忧的是,如果人们只看搜索引擎总结的内容,那些依靠流量来支撑自己业务网站的收入就会急剧下降,最终专业的内容制作人就会被移出市场。从长远来看,没有人愿意生产。 AI 在过去的30年里,科技巨头、内容制作者和广告商之间所需的高质量内容的平衡正在被打破。


AI的“黑盒”


谷歌作为这次大型比赛的失意者,当然是对的。 AI 发展的贡献也是不可磨灭的,几十年来的大量投入,创造了 Transformer 这种具有跨世代意义的基础结构, OpenAI GPT 苦苦追逐就像是 20 世纪 60 美苏时代登月大赛,最终逼出了世界上第一个千亿参数的大语言模型。


所以,大语言模型就是我们的方向。 AGI 正确的路面(通用人工智能)?至少目前专家们还没有达成共识。尽管大型模型显示出惊人的能力,但是它也存在一些明显的问题。


首先是不可解释的。大模型的生成内容依赖于数千亿个神经元连接参数的计算,因此很难解释其决策过程和生成结果的具体原因。这种不可解释的黑盒决策模式会造成很多应用问题,尤其是在一些敏感领域,模型的不可解释性与监管政策相冲突。


人工智能和大数据专家窦德景博士认为,与传统的深度学习模式相比,大语言模式的可解释性得到了提高。原因是我们可以用提醒工程来解释模型,然后探索大模型行为的边界。这样,我们就可以从一个完全看不见的黑盒改变到白盒和黑盒之间的状态,这种模式也被称为“玻璃盒”。


第二,人工智能的伦理和安全也是一个必须引起重视的问题。许多专家建议各国政府开始采取行动,建立一个跨国组织,类似于国际原子能机构,以控制人工智能的发展。OpenAI 伊利亚是首席科学家•苏茨克维尔(现已离开 OpenAI)曾经在公司内部建立了一个非常对齐的团队,确保人工智能行为能够对齐人类的价值观,从算法上保护人类的根本利益。


从训练数据的角度来看,阿里巴巴试图解决问题。通义大模型团队与天猫精灵联合提出 100PoisonMpts(也称为“给予” AI 的 100 瓶子毒药)项目, 该项目提供了业内第一个大语言模型治理开源中文数据,由十多位知名专家学者成为第一批“给予” AI 的 100 标注工程师的瓶毒药。标记者各提出 100 一个棘手的问题,诱导偏见,歧视答案,并标记大模型答案, 完成与 AI 攻防从“下毒”到“解毒”。围绕第一个领域的数据 AI 反歧视、同理心、讨论表达等目标已经涵盖了法理学、心理学、儿童教育、无障碍、冷知识、亲密关系、环境公平等维度。


最终是计算效率的问题,大型训练模型所需的计算量非常大,能耗惊人。例如,训练 GPT-3 耗用了 1.287 吉瓦的时电量,大约相当于 120 一个美国家庭每年消耗电力。如今,随着全球气候变化的影响越来越大,如何提高大模型的练习效率和云计算的效率是主要因素 AI 企业和云计算设施提供了企业必须面对的问题。


把 AI 作为方法


1994 年,凯文 · 在他的《失控》中,凯利是对的。 AI 有极其精确的预测:


“我们基本上不会注意到水果上的标签、电影字幕等无处不在的文字。电机刚出现的时候,就像一只傲慢的野兽,但从那以后,它们逐渐缩小,变成了微不足道的东西,融入了大多数机械设备(并被遗忘)。最深层次的技术是那些看不见的技术,它们把自己编织成日常生活。 在细微的末节中,直到成为生活的一部分。


AIGC 内容创作者在大爆发后发现,AI 作为辅助工具,他们在帮助他们提供灵感、创造力和提高效率方面越来越得心应手。他们需要不同层次的日常工作。 AI 协助,这也使得工具型 AI 应用程序可以迅速出现。内容创作者可以从相关应用平台提供的产品中获得更多的想象力和创造力,节省大量时间。


如今,AI 它不仅可以帮助你创造文学和艺术,还可以帮助你一键完成繁琐的工作。每个人都已经从对技术的好奇和观望转变为思考如何让大模型着陆,产生真正的价值。


当我们将 AI 当被视为工具而非人类的替代品时,它是一种 AI 与人类相处的新方式也出现了。


根据麦肯锡的研究报告,生成式 AI 有望为全球经济做出贡献。 7 一万亿美元的价值,这些价值的计算主要来自两个角度: 60 多个生成式 AI 用例在 16 在业务功能中的应用;二是生成式 AI 对 850 个体职业和超越 2100 对具体工作任务的影响。


预计到 2030 年前,约 50% 智能工作任务将实现。在中国,这可能意味着预约。 2 亿万劳动者需要转型或升级技能。生成式 AI 不但能提高工作效率和创新能力,而且能深刻改变未来的工作方式和经济结构。


本文来自微信公众号“中欧商业评论”(ID:ceibs-cbr),作者:唐浩楠,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com