黄仁勋:我从来不在乎市场份额。英伟达的唯一目标是创造新的市场。
黄仁勋最好的采访就是我听说过的!
英伟达CEO黄仁勋的一次炉边谈话再次引发热议:
英伟达从未有一天讨论过。市场份额。
我们所讨论的只是:如何创造下一个项目?怎样把过去需要一年才能完成的飞轮缩短到一个月?

老黄对Azure和AWS等正在独立构建ASIC芯片云计算的大客户进行了描述:
企业受鱼塘大小的限制,唯一的目的就是用想象力来扩大鱼塘。(指创造新的市场)
当然,除了提到英伟达,老黄还讨论了AGI的智能拓展、机器学习的加速、推理和训练的重要性...

虽然时间很感人(将近一个半小时),但是一大波网友已经看完并交了工作(开始卷起来吧!)

网民:学习!学习!


黄仁勋:未来推理的增长将远远大于训练
因为视频比较长,量子位先直接给大家敲重点,老黄的主要观点包括(省流版):
口袋里的AI助手很快就会以某种形式出现,尽管最初可能并不完美;
在建立GPU方面,英伟达的竞争优势是、CPU、从网络到软件和库全栈平台;
人工智能的拓展重点已经从训练开始了转移到训练后和推理;
推理(inference)时计算将成为一种全新的智能扩展向量;
未来推理的增长将远远超过训练的增长;
闭源和开源将并存,开源模型可用于在特定领域建立应用程序;
……

(以下为重点部分整理)
Q:关于个人AI助手的发展前景,你认为我们什么时候在口袋里安装一个无所不知的AI助手?
A:很快就以某种形式出现了。。这位助手一开始可能并不完美,但是随着时间的推移会不断完善,这是技术发展的必然规律。
Q:现在AI领域的发展变化速度是你见过的最快的吗?
A:是啊,这是因为我们重新创造了计算。过去10年来,减少了我们计算的边际成本10万倍,而且按摩尔定律可能只会减少。100倍。
通过以下方法,我们实现了这一点:
介绍加速计算,将原本在CPU上效率低下的工作转移到GPU上
发明新的数值精度
开发新架构(如张量核心)
选择高速内存(HBM)
通过MVLink和InfiniBand实现系统扩展
这一快速发展使我们从人工编程转向机器学习,整座技术栈正在迅速创新和进步。
Q:在模型扩展方面有什么变化?
A:过去,我们主要关注预训练模型的扩展(重点是模型大小和数据规模),这使得计算能力每年增加4倍。
如今我们可以看到后训练(post-training)而且推理阶段也在扩大。人的思维过程不可能一次完成,而应该是快速思考、慢思考、推理、反思、迭代和模拟等环节。
而且,以前人们觉得预训练难,推理简单,但是现在很难了。

Q:你认为NVIDIA今天的优势是比3-4年前更大还是更小?
A:实际上更大。在过去,人们认为ic设计就是追求更多的FLOPS和性能参数,这种想法已经过时。
今天的关键在于整个机器学习系统。数据流水线(flywheel),因为机器学习不仅仅是软件编程,还涉及到整个数据处理过程。AI从一开始就需要参与数据管理。数据收集、整理、训练前准备等每一个环节都非常复杂,需要大量的处理工作。
Q:Nvidia在芯片制造和设计上与Intel等公司有何不同?
A:Intel的优势在于x86串行处理芯片的生产和设计更快,而Nvidia采取了不同的策略:
并行计算,不需要每一个晶体管都非常优秀。
与较少但更快的晶体管相比,我们更倾向于使用更多但更慢的晶体管。
宁可有10倍数量、20%速度的晶体管,也不要有10倍数量、20%速度的晶体管。
Q:Trainiumm,定制ASIC(例如Meta的推理加速器,亚马逊的Trainium、GoogleTPU)以及供应短缺的情况,这些是否会改变与NVIDIA的合作趋势?
A:所有这些都在做不同的事情。NVIDIA旨在为这个新的机器学习、生成AI和智能Agent世界搭建一个计算平台。
在过去的60年里,从编程模式到处理器架构,从软件应用到人工智能,我们重新创建了整个计算技术栈,各方面都发生了变化。我们的目标是创建一个无处不在的计算平台。。
Q:作为一家公司,NVIDIA的关键目的是什么?
A:构建一个无处不在的架构平台。我们不是在争夺市场份额,而是在创造市场。我们专注于创新和处理下一个问题,使技术进步更快。
Q:NVIDIA对竞争者和合作伙伴的态度是什么?
A:我们对竞争非常清醒,但是这并没有改变我们的使命。让我们去AWS、合作伙伴Azure等合作伙伴提前分享路线图,即使他们正在开发自己的芯片,也要保持透明。对开发者和AI初创企业而言,我们提供CUDA作为统一入口。

Q:如何看待OpenAI?如何看待它的崛起?
A:OpenAI是我们这个时代最重要的公司之一。虽然AGI的实际定义和时间点不是最重要的,但是AI能力的发展路线图会非常壮观。AI已经在各行各业创新了工作模式,从生物学家到气候研究人员,从游戏设计师到制造工程师。
我很欣赏OpenAI推动这个领域的速度和决心,也很高兴能够支持下一代模型。
Q:您认为模型层是否正在进行商业化,以及它对模型公司的影响是什么?
A:模型层正在商业化,Llama的出现促使建模更便宜。这将导致模型公司的整合,只有那些拥有经济引擎并且能够持续投资的公司才能生存。
Q:您如何看待未来的AI模型,以及模型与人工智能的区别?
A:模型是人工智能不可缺少的一部分,但是人工智能是一种能力,在不同的领域需要应用。我们将看到模型层的发展,但更重要的是如何在不同的使用场景中应用人工智能。
Q:你怎样看待X公司,以及他们在建立大型非常集群方面的成就?
A:他们在19天内建立一个拥有100,000个GPU的超级计算机集群(通常需要3年时间)。它显示了我们平台的力量,以及我们能够将整个生态系统集成在一起的能力。
Q:是否认为分布式计算和推理扩展将发展成更大的规模?
A:是啊,我对此非常热情和乐观。作为一种全新的智能扩展向量,推理时计算,不同于只建造更多的模型。
Q:是否有许多事情只能在人工智能的运行中完成?
A:是啊,很多智能工作不能先验地完成,许多事需要在运行时完成。。

Q:你怎样看待人工智能的安全?
A:我们应该构建安全的人工智能,并与政府机构合作。为了确保人工智能的安全,我们已经建立了许多系统,我们需要确保人工智能对人们有益。
Q:每个人公司40%以上的收入来自推理,推理的重要性是否因为推理链而大大增加?
A:是的,推理链使推理能力提高了十亿倍,这是我们面临的工业革命。未来推理的增长将远远大于训练的增长。
Q:大家如何看待开源和闭源人工智能模型的未来?
A:开源模型和闭源模型都将存在,它们是不同行业和应用的必要条件。开源模型有利于激活多个行业,而闭源模型则是经济模型创新的引擎。
你觉得以上这些怎么样?请在评论区留言讨论。
参考链接:
[1]https://x.com/StartupArchive_/status/1848693280948818070
[2]https://www.youtube.com/watch?v=4jQQburCR4jQ
本文来自微信微信官方账号“量子位”,作者:一水,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com



