微软中国首席执行官韦青:亲身体验落地大模式的感受和思考

07-10 21:25

在模型、AIGC 在冲击下,大多数人把注意力集中在R&D的浪潮上,把注意力集中在那些“容易处理”的问题上。但事实上,企业成长过程中仍然存在许多非常明显的、需要解决的、关键的问题,就像公司里“看不见的大猩猩”一样,这些问题很可能成为公司快速发展的“卡点”。


微软中国 CTO 韦青在 2024 年 4 月举办的 QCon 在北京发表的主题演讲《看不见的大猩猩——智能时代的企业生存与发展之路》中,我们结合自己的经验,聚焦公司内部这些被忽视的“大猩猩”,分享解决关键问题的方法。本文由 InfoQ 整理,经韦青老师授权发布。



思想的力量


一件事成功并不容易。在推广的过程中,会有很多局限性。在这个新事物层出不穷的时代,有一个常见的根本局限性,那就是人的思想局限性,表现为试图用不明确的真相分析和旧的逻辑来处理新问题。


对事物真相的判断,在这个世界上,有三个不同的层次:事实、现象和观点。


理论上,很难得到大家公认的事实,这是不可能的。因为每一个人都依靠自己的“有色眼镜”,即感觉器官来观察事物,得到的是感觉器官所感觉到的现象。每个人都会根据自己的个人经历、背景和认知偏差来解读所看到的现象,最终形成自己的想法。由于观点都具有主观色彩,所以既代表现象,又不代表事实,只能作为讨论的材料。每个人都可以根据自己的观点进行辩论,并就现象和事实达成一致。


如果你在电影《肮脏的哈里》中看过演员克林特·伊斯特伍德,他在这部电影中有一句著名的台词:“观点就像<身体的排泄出口>,每一个人都有。(有异味,但是每一个人都认为自己的好闻比别人好)”


在理解了这个道理之后,当我们听到社会上的一些流行说法时,首先要明确这是一些观点,还是每个人都达成了共识,背后的事实大致是什么样子。不要太早受到观点的影响,以免陷入“看不见的大猩猩”的陷阱,被信息误导,只关注媒体让我们看到的,而不是真正发生的。例如,现在我们在网上,在朋友圈里看到的许多现象,很可能都是有导向的关注点。但是真正的事实是什么呢?要超越外表,深入探索事物的本质。


我发现,在R&D实践中,人们的问题实际上是最复杂的。虽然技术难题难以解决,但是技术终究是人创造的。当我们的思想方法出现问题时,无论人们多么优秀,再怎么努力,他们处事的结果也十分有限。但是思想转变是最难的,要改变思想,我们需要采用成长型思维的方式,不断地学习,不断地纠正。这意味着我们必须意识到,我们的思想是有偏差的。我们经常把我们想看到的现象误认为是事实的全部,很快形成一种观点,认为别人错了,我们是对的。这时,没有人能爬上山顶,看到未来。只要未来还没有发生,在这个不确定性主导的世界里,判断它是一个概率问题。


人工智能依靠计算机基于数据来实现学习,数据问题就像房间里的大象,可以说是看不见的大猩猩。据说它是房间里的大象,也就是说这个问题很明显,但是很麻烦,大家都不愿意主动指出来。对于高质量数据的积累,不能简单地通过积累资金和人力来解决,或者只要有大量的计算率。这需要长期的文明积累。并不是所有的数据都有可以学习的知识。只有能够表征文明特征的数据,机器才能学到代表这种文明的知识和价值观。说它是一只看不见的大猩猩,说明这个问题经常被媒体误导,被大众忽视。我们看到的是关于相关算率和算法的讨论,而人工智能的实现是一个复杂的系统工程,各种前提条件缺一不可,就像一个水桶。无论建造水桶的木板有多长,它的存水量都是由最短的木板决定的。人工智能就像一个被数据培养出来的孩子。若提供给它的数据存在偏差,则其行为和决策也必然存在偏差。假如数据来自他人,那么训练出来的模型的行为和偏好也将是他人的。


对所有企业来说,我认为第一步是显而易见的,今天现场发布的报告《中国生成式》 AI 开发者洞悉 “2024”(后台回复「开发者洞悉」可以下载)已经给出了答案。但是有时,我们需要注意的是那些不言而喻的麻烦,但是每个人都不愿意去触碰。例如,人才、数据、流程优化等问题,这些都是我们所说的“硬核”问题。这些问题并不新鲜或伟大。它们都有一个共同点,那就是与脚踏实地的风格和长期的积累有关,与维持独立思想和不盲从潮流有关,与每个个体和组织愿意耐心地花多长时间取得成就有关。他们需要根据人、时间和时间来复制和粘贴。每一个个体、每一个组织都有自己的数据特征、流程特征、人才储备和资金储备,以及行业特征。


不但要学会别人做事的正确方法,更要借鉴别人犯错误的教训,而非一味地寻找所谓的“好实践”。因为在实践中,就像踩雷区一样,或者正如查理·芒格所说——智慧不在于做对每件事,而在于知道什么是错的。这种方法可能不能保证我们在一个极度不确定的时代的成功。但是它可以让我们成功的几率稍微高一点,哪怕只是一点点。


如果你仔细观察行业内所谓的成功公司,你会发现他们的成功大部分都是概率性的,只是因为他们活了下来,是幸存者,这种经验的总结很容易陷入“幸存者偏差”的陷阱。没人在微软,OpenAI、在成立之初,英伟达、谷歌、华为、阿里、百度、腾讯等企业就敢说他们会成功。成功是因为他们在重要的事情上犯的错误很少,只要不死,你生存的可能性就会增加。所以,并非说不要向成功者学习,一是不需要复制,二是要看这些企业没有做什么。



真正的思想变化是什么?我们每个人的思想其实都是很成形的。尤其是那些成功的人,经验丰富的人,过去成就更多的人,他们的思想通常更难改变,这是公认的事实。


在电脑史上,有一个非常有名和直言不讳的人物,他就是艾兹格格。·W·迪科斯彻。上个世纪,当有人问他电脑能不能思考时,他回答说:“问‘电脑能不能思考’就像问‘潜艇能不能游水’一样。他的回答是否正确并不重要。重要的是那一代计算机科学家的探索精神。他们可以理解事物的本质,而不受经验的束缚。这种精神在当代社会非常重要。



今天我再举一个比较相关的例子,就是马车和发动机的故事。


20 多年前,麻省理工学院第一任人工智能研究室主任西摩尔·派普特提出了一个思想实验,让我们想象一下,如果一个现代喷气发动机工程师穿越回来。 19 本世纪初,向当时的马车夫和马车行展示喷气发动机,并询问它们是否能够帮助他们。


每个人首先想到的可能是在马车上安装喷气发动机,我把它解释为“AI “,因为把发动机放在马车上,真的可以让马车比马跑得更快更方便。但这是我们的最终目标吗?绝对不是。我们真正需要做的是重构整个市场,甚至整个社会的基本形态,因为新工具的出现。


由马车向汽车的转变,交通的本质目的并未改变,仍然是将人和物品安全、可靠、及时、有效地从一点移动到另一点。但是,如果我们使用马拉车,我们需要考虑的是每两公里设计一个饲草堆和化粪池。但是如果是汽车,我们需要每隔一段时间。 几十 在公里内建立加油站和服务点。不管是加油站还是化粪池,都有它们存在的必要条件,也有它们存在的前提。一切都是商机,只不过是不同思想层面的商机。这一不同的思想层次代表着不同的思维模式、工业模式和文明模式。要注意这一发展方向之间,并非对错,只是由于人生观和价值观的不同,选择了不同的发展道路。那就是不同思想和思维方式的不同结果。


报告《中国生成式》今日发布。 AI 开发者洞悉 这些问题在2024年已经得到了非常清晰的讨论。报告指出,首先,开发需要有场景,需要了解大语言模型的研发,我认为我们必须知道我们在处理什么是人类问题。第二,我们需要知道如何使用工具。三是要找到合适的工具。举例来说,如果我们想在墙上挂一幅画,很有可能我们会用钢钉或螺钉,用锤子或螺丝刀。而且如果我们在工厂里组装一辆汽车,那么我们所面临的问题与所需的工具和方法将完全不同。


西摩尔·派普特曾说:“如果你的思想没有改变,无论你拥有多么先进的新工具,它能改变什么?假如这个工具只是用在马车上的一个特别好的发动机,它的确可以让马车跑得比马还快。目前,我们已经在使用人工智能工具,不管是生成的还是传统的,都使用了各种类型的人工智能工具。人们普遍认为,人工智能工具看起来很有用,但似乎没有达到预期的效果。虽然我们现在正在使用这些工具,但是最终,人工智能将改变我们的整个社会范式。这意味着“从”AI ”(AI 简单添加)到“AI 化”或“AI 乘”(AI 深度融合和乘数效应的变化。



目前,我们所有的话语系统都在讨论我们应该做什么,我们应该做什么样的设计,包括人工智能的生成应用。这就引出了一个问题:人工智能是否仅限于生成应用?传统人工智能一文不值吗?其实我们并不在乎它是什么样的人工智能,只要它能帮助我们解决问题,通过重建社会结构,它就能成为一个新的工具。


了解了这个道理之后,我们可能会意识到,在做事的过程中,一方面要跟着,但是一定要记住,只是跟着永远不会有未来。在大多数情况下,我们面临的是概率问题。无论是贝叶斯思维还是蒙特卡洛方法,未来的一切都与概率有关。想象一下,如果我们所有人都在追求同一个目标,选择同一个范式,那么我们成功的几率是多少?或更具体地说,你成功的几率是多少?


无论工具多么先进,无论喷气发动机开发得多么好,如果人们只想着把它安装在马车上,我们都很难找到新的出路。那么,汽车会是什么样子呢?整个社会形态会如何变化?我们需要建立加油站、铺柏油路和收费站吗?人们有必要开始研究整个科学领域,如整体规划、运营和算法优化,以抓住机遇并引领变革吗?


要知道我们真正需要找到的是如何处理某些问题。那我们的问题是什么?人工智能的方法有很多种,可以是生成的人工智能,也可以是传统的人工智能,也可以是具体的人工智能。在我们要解决的问题还不清楚的时候,只谈人工智能作为一种工具和方法的优劣,那也只是一种观点而已。问题是:作为人类,我们能看到多少信息处理能力?究竟我们想要的是机器产生的内容还是生活的快乐?这种幸福可以通过生成大量的文字、图片和视频来获得,或者只是比别人强,或者需要机器的能力来拓展人类的探索边界,拓展人类的知识,增加我们的智慧,加深我们对浩瀚宇宙真相的理解,从而使地球文明能够突破当前的局限,进入一个关注思想繁荣和智慧增长的信息文明时代,不再受物质和能量的束缚。对于这些问题,我认为答案将决定下一步人工智能的去向。


机器的使命


回顾机器的概念,我在这里引用了微软董事长兼董事长。 CEO 道格拉斯·恩格尔巴特的观点经常被萨提亚·纳德拉引用。作为现代计算机文明的奠定者之一,道格拉斯·恩格尔巴特的技术愿景和对人类社会发展的洞察力仍然引导着当前计算机发展的趋势。恩格尔巴特有类似于思想家范内瓦·布什和司马贺的观点。他们都认为,人类社会接下来最大的挑战是,信息过载带来的复杂性远远超出了人类能够处理的范围。信息技术提高了人类的社会效率,增加了复杂性。我们应该用计算机来帮助我们处理计算机带来的问题。



作为碳基动物,人类通过我们的五个传感器感知周围的世界,然后通过神经传导的电化学作用,将我们从周围世界感知的信号传递到我们的大脑进行处理和加工。由于信息量的泛滥和通信的普及,以及大多数人的思想能力还没有进化到可以有节制地使用我们的大脑信息处理能力,我们的大脑开始出现“肥胖”,就像吃喝的身体一样,没有选择和控制地摄入信息。当然,经过多年的工业文明陶冶,人类已经知道我们的身体不能随便吃油炸食品,我们开始做出选择和判断。那么我们是如何对待大脑的呢?让我们反思一下,从今天早上醒来到现在,你看到的新闻中,哪些是真的,哪些是假的,哪些是半真半假的,哪些是有偏差的,哪些是骗你的,哪些是对你有帮助的,哪些是无用的,哪些是虚构的?


事实上,我们大多数人并没有仔细考虑,而是直接接受了这些信息。让我们回想一下。从今天早上醒来到现在,你还记得你看到的多少信息?有多少信息真的可以使用?我们的大脑是在空转,不断摄入“油炸食品”,还是真的吸收了有用的信息,提高了我们的思维能力?


在讨论下一步的实践内容之前,我想强调一下,在这个时代,“不被骗”是最大的优势。我们在竞争什么?是智力、情商、理商。现在我加了一个信任商,就是信息智力。我们做这件事 IT 众所周知,网络安全有“零信任”的原则,那么面对信息摄入,我们是否也应采取“零信任”的态度呢?


作者是“看不见的大猩猩” 2023 年又写了一本叫《没人是傻瓜》的书。在书中,每个人都应该遵循“少信一点,多验证一点”的原则。所有由像素产生的信息都要默认,很有可能是假的。和网络一样,我们也应该对所有像素组成的信息采取零信任的态度,然后训练我们自己的算法来帮助我们识别信息的真实性。否则,我们的工程师和科学家可能会被一些信息误导,而不是被别人约束,而是被别人欺骗,被别人带着到处跑,误以为自己走对了方向。我们每天都在学习别人的好实践,每天都在学习正确答案,却忽略了一个最基本的事实:我们已经进入了开卷考试的时代,现在最需要的是正确答案,最需要的是独立思考得到的适合自己的答案。


下一步,我想简单地展望未来。感觉现在有很多人在开始攀登之前,拼命想象山顶会是什么样子,是好是坏,是否可行。但事实上,大多数人甚至还没有开始他们的旅程。目前我觉得智能机器——不要夸大它的功能,它是一款智能机器——但它创造的是帮助人类了解极大、极小、极远、极近的领域。我们所说的极大指的是宇宙,极小指的是量子,极远指的是太空,而极近指的是对自己有更深的了解,最终了解我们是谁。


如今的智能机器效率很高,推动了“AI for Science"(科学智能)和"AI for Everyone"(人人智能)的发展,尤其是"AI for Science",在科学探究得到智能机器的支持之后,它的研究进展速度是惊人的。如果你了解当前生物学、细胞学、医学和量子物理学的研究进展,你会发现这些进展远远超出了我们对生成人工智能的想象。英国剑桥的微软 AI 研究所,已转变为"AI for Science“研究,也取得了许多突破,包括在材料科学应用领域。众所周知,我们人类对自己和量子的理解是非常有限的,机器可以在分子、原子、细胞、细胞等这些方面提供很大的支持。DNA\线粒体、材料、能源构成等领域,还有许多未知等待我们去探索。


我们现在看到的,比如制作图片、视频或者生成文字,在办公系统中是非常有用的,但是它们只是智能机器能力的一个狭窄领域。我在下图中提到了一些概率,并用红色标记。但这些只是美好的愿景,需要落地实现,智能技术的落地也是一个可循的逻辑。



落地次第


我之所以一开始讲这么多相关的想法和想法,是因为如果我们不能放下每一个人的思想偏见,尤其是成功人士的思想偏见,放下我们思想中的历史包袱,我们接下来的行动很可能只是在马车上安装一个发动机,争夺谁的马车安装发动机后跑得更快,而不是意识到虽然汽车一开始可能比你的马车跑得慢,但汽车最终会远远超过马车。也就是说,对我们来说,每个人的挑战都在于,我们可能仍然坚持为马车安装发动机的想法,因为我们需要珍惜当下,但我们需要开始意识到,我们的目标不是如何更好地建造马车,安装多少发动机,或者如何改造它,而是开发一套全新的汽车结构和现代交通系统。



我想你已经知道下图显示的架构了。它最终从系统架构出发,通过应用架构,再到开发架构,实现了具体的使用场景。虽然这是一个非常明显的过程,但即便如此明显,真正能找到客户实际需求的应用程序也很少。



我的观点是:“知道山在哪里并不意味着你可以爬到山顶;但是在山脚下,你不能确定这是不是最高的山。”虽然学习、观察和向别人学习很重要,但这些只是必要条件,不是充分条件。即使你知道山的位置,即使你有爬山地图,这也只是真相的一部分。地图不是真实的场景,所有的地图都是别人已经走过的路。


给我印象最深的是,在学习工程的时候,曾经调整过。 PID 参数。第一次调节 PID 参数时感到非常困惑:书中的理论知识都是正确的,函数也是正确的,但是电机就是在那里晃动。书的知识与实际现场出现的情况不同。所以,个人实践和实证至关重要。学到一定程度是很重要的,但是最终还是要找到自己的解决方案,找到适合自己的方法。


当你观察很多人工智能的开发模式和范式时,你可能会注意到有很多夸张的宣传,很多解释侧重于“一剑封喉”的肯定,只要你这样做,就会有这样的结果。但是,只要一种思维能力具体作为一种具体的方法,就会有其适用的前提。只有回归其思维能力,借鉴者才能根据具体问题进行分析和解决。


第一,智能机器需要清楚地了解它的目的;第二,它需要了解自己的能力界限;第三,它必须了解它的操作约束,即它所处的约束空间。下一步,智能机器需要能够找到可用的外部资源工具等,然后开始简化拆卸任务,决定是顺序执行还是并行执行。实施过程中,还需要一条实时反馈链,即持续的信息反馈,持续的行动,不断的纠正偏差。


现在在网上,有人会说:reflection翻译为“反思”,这类翻译存在问题。这台机器真的会反思吗?实际上,机器只是在反馈的基础上,对其预测进行计算和纠正,而不是像人类那样进行深入的反思。因此,我们不应该在设备上使用描述人类思维的词汇,这是非常危险的,因为它可能会导致我们对机器的能力做出错误的判断。


在了解了以上内容之后,我们可以进一步抽象地看待问题。实际上,我们每天整天都在进行人们的工作。 - 机器协同工作。身为个体,我们每一个人都有自己明确的目标。下图中,用红色表示人类正在执行的任务,用蓝色表示机器正在执行的任务。好好想想。从今天早上醒来到现在,我们是否一直在和机器协调工作,无论是坐公交车、打车、开车、上课还是玩手机?这样的协调工作会出现怎样的现象?真正的机会在于我们是否能识别出我们的痛点。当我们识别出自己的烦恼时,如果这种烦恼能得到机器的帮助,它就会成为智能机器可以发挥作用的地方。熟悉 TRIZ 在创新方法论中 TESE 方法的人可能会看到,其实这是一种逐渐减少人类参与的系统创新方法,并不是一个突如其来的话题,而是随着人类发明的工具的进步,创新的方法也在不断演变。对本轮智能机器而言,信息是核心,也凸显了数字化在过去几十年中的重要性。


没有数据很难实现智能算法,没有数字化就没有数据。因此,我们仍然需要进行数字化改革。一旦我们理解了这个基本原理,我们就可以发现房子里有很多像大象一样的问题。虽然没有人直接讨论,但它们显然停留在我们前进的道路上。


只有人才的思想解放、组织的重构和过程的重塑是不够的。为了实现数字化转型,我们还需要结合数字产品和实时反馈链,以及整个产业链的协调。这不仅是个人和公司的问题,也是上下游合作伙伴在整个生态系统中的相互匹配和协调。在这种情况下,数据是真正的 AI 生成的数据。


作为一家合资公司的总经理,我也管理企业。当公司试图利用智能机器的能力优化公司的客户服务时,我们认为我们已经积累了大量的服务数据,可以方便地实现服务的智能化。但是当你尝试的时候 AI 应用时,会发现这些过去积累的数据,其建模方法并未针对智能机器算法进行改进,可以使用,但是效果并不好。为何?人们常常误以为机器能学到任何东西,尤其是非结构化数据,我认为这是一种很误导的说法。扪心自问,机器真的可以学习非结构化数据吗?机器学习真的可以学习没有标签的数据吗?所谓的非监督学习,其监督已嵌入到提供给它的数据结构中。换言之,数据本身必须包含逻辑,机器才能从中学习。真的把一堆没有内在模式的数据扔给机器,它是不可能凭空识别模式的。


只有拥有数据,我们才能获得真正的知识,然后把这些知识转化为 Copilot,加入每一个环节。我认为这将是未来作为人类智能助手的终极解决方案。这也与我之前提到的报告有关。其实没有什么行业或者工作内容不会重构,所有可以拆解成流程的工作都会重构。


过程中的一个关键点就是必须同时满足人类能够理解和机器能够处理的条件。回首往事,这其实是真的。 Web 3.0 概念,即十几年前的语义网,当时的语义网技术被称为“语义网” Web 3.0 技术。这里的关键不在于术语本身,而在于它的内涵。我们的整体愿景是把我们的生活、世界和社会建设成一种既能被理解又能被机器处理的方式。每个公司的领域知识、专家知识、行业知识都可以建模,这样机器就可以理解和处理了?就拿现在流行的售后服务数字化和智能化来说,你的知识库真的能做到既被机器理解又被机器处理吗?根据我的经验,这通常需要重建。关键在于流程的智能化和智能社会的构建,不管是什么, AI 加法还是 AI 实际上,乘法要考虑重建,而不是简单地在马车上加一个发动机。


精心打磨流程重构,数字化建模,实现数据生成和管理,实现流程智能化。但是遗憾的是,大多数人都把重点放在了最后一点,即流程智能化,而忽略了前三点。前三点是所有金字塔的底座,如果底座不牢固,整个结构就会动摇。另外,还有第五点,那就是“人在循环”。因为机器不是全能的,所以人和机器的融合非常重要,但是这还不够。第五点以上是第六点,即“人在环路上”,涉及控制论的一、二、三阶控制和优化,也可以称之为一、二、三阶学习过程,这就是为什么要做事。 - 干什么 - 怎样做”(Why-What-How) 反向提升过程,与机器学习所依赖的反向传播机制在概念上是相通的。


我们现在要做的第一步是重构所有的流程,让机器完成工作,赚取利润。但是为了预见最终的位置,我们还必须建立一种新的人机文化。这样的企业不可能长久,只关注机器或技术能做什么,而不考虑人的因素。


最后,我想谈谈信息文明最显著的特征,那就是防止被欺骗,这种能力也会被别有用心的人所欺骗。如今,我们生活在一个信息社会,真的能辨别出对自己有用的信息,并对此做出正确的判断吗?我觉得这很难。每一个人都被包裹在自己的信息茧房里,只看到我们想看到的,只听到我们想听到的。所以,我们怎样才能保证自己不受这只看不见的大猩猩-信息茧房的限制呢?对于我们每一个人来说,这是最大的挑战。


今日,我分享了这些内容,因为我认为如果不解决这个问题,只是偶尔得到一些答案,偶尔成功一下,是不够的。由于对未来技术发展没有坚定的信念,偶尔的成功并不意味着最终的成功。我从微软的一些工程师那里听到了他们的心态,现在就和大家分享一下。微软的 CEO、萨提亚·纳德拉董事长 2022 年 5 月份已经提到了 ChatGPT、OpenAI、Copilot 等概念。2022 年 11 月底 ChatGPT 发布后,每个人都蜂拥而至。事实上,微软工程师也经历了这样的过程。起初是“AI ”,将 AI 应用于一切事物,但是第一代产品发布后发现效果不佳,那还只是一辆马车。


于是,他们转向了“Everything for AI”,也就是说,利用新工具重构商品的流程和使用方法,包括人机交互界面、流程、判断和执行。最后,他们发现,关键不在于 AI、数据,显卡或算法,在于处理世界上的风花雪月,吃穿住行。如果能满足人类的基本需求,我们的产品一定会有生命力。假如你的观点仅限于一台喷气发动机或一辆马车,那我认为你不会取得很大的成就。


今天的标题是“大型模型正在重新定义软件”。什么是大型模型?什么是“正在”?重新定义软件的结果是将软件视为马车和引擎,或者真正重新定义软件工程和软件流程,改变整个软件的生命周期?


一些微软研究所的研究人员专门研究“AI for software engineering",我认为这可能是我们在软件开发行业面临的未来。有些人已经开始意识到,当我们仍然感觉到在马车上添加发动机时,这只是暂时的现象。我们真正想要的是一个由汽油、柴油驱动的现代化交通系统。但在 100 几年后,我们发现这个交通系统实际上是由电力驱动的。在接下来的几十年里,我们将面临机遇和挑战。


本文来自微信微信官方账号“AI前线”(ID:ai-front),作者:韦青,36氪经授权发布。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com