大型时代的芯片,要怎么造?

2024-04-22

四月十六日,李彦宏在百度AI开发者大会上给出了文心经历2023年百模大战后的战况数据:


用户数量超过2亿,服务企业8.5万,AI原生应用超过19万。


另外,他还透露,每天在百度内部添加27%的新代码是由Comate(AI代码助手)生成


百度给出的这组数据,作为我国布局最激进的互联网巨头之一,印证了大模型对互联网公司的巨大影响。


实际上,大型模型带来的影响远不止于此,李彦宏说:“未来的开发应用将像拍摄短片一样简单。


或许正是在这一波变革的漩涡中,或者是错过了云计算那一波时代的红利,李彦宏对大模型发表的言论一直非常激进。


无论大模型能否像李彦宏预期的那样颠覆互联网时代的生产模式,一个不容忽视的事实是,这波大模型浪潮的背后,本质上还是一场算率之争。


如果你想在大模型时代获得先机,先进的制芯片研发,如访存密集、近存计算、类脑计算、存算一体化等。,是不可回避的竞争焦点。


就在上周,在第十三届吴文俊人工智能科学技术奖颁奖典礼的一系列活动中,圆桌讨论了大模型时代芯片产业的发展。


在圆桌上,四位芯片领域专家,分别是中国科学院自动化研究所研究员&中国科学院南京人工智能创新研究所副院长程健、中国科学院微电子研究员尚德龙、上海科技大学教授哈亚军、北京忆芯科技有限公司首席架构师黄好城:


1、大型云端芯片需要什么样的大型模型?


2、为了实现通用人工智能,机器人需要什么样的芯片?


3、大型模型在ic设计中的应用是什么?


4、芯片业需要什么样的生态?


四大关键问题展开了激烈的讨论。


本论文对这次圆桌讨论的内容进行了不改变本意的整理,供大家参考。


01 云端芯片在大模型时代。

问题:在大模型时代,云、边、端芯片各有哪些发展机遇和挑战?


程健:要回答这个问题,我们首先要看的是,今天所谓的大模型和过去的传统模型有什么不同。


这些差别很大,但本质上没有太大的差别,特别是芯片架构上没有太大的差别。


第一个是云芯片,我们看看今天英伟达的GPU,它是通过不断地堆积显存,扩大带宽来提高性能,除了技术改进之外,更多的是通过增加硬件成本来提高算率


对于我们来说,要想超越弯道,就得看能不能通过。存算一体化,三维堆叠等待形式,探索一些新的路径。


云追求的是奥运精神,更快、更高、更强,在边缘和终端方面,与云有着不同的场景和需求。


由于边缘和终端侧,受体积、成本、功耗等限制。,不能追求更高、更快、更强,特别是还有不同的场景和应用需求。事实上,为我们制作芯片提供了更多的机会。


例如很多团队把模型和算法结合起来,一些芯片架构也发生了变化,比如ASIC模式。


其中有许多东西可以做,需要定制,也有更多的机会。


尚德龙:大模型需要高计算能力,这是一个挑战,也是一个机会,我同意程老师的观点。


本质上,大型模型是一种生成式AI模型,生成AI模型的一个主要缺陷是无法生成知识。,无法产生知识如何呈现通用智能,这是我要问的一个问题。


就云端的机会而言,不要只看芯片,还要结合算法来讨论。


类脑计算本身就是一个很大的系统,我们能不能?通用人工智能可以从现有算法和类脑算法的结合中实现。,那是一个值得思考的问题。


另外一方面,类脑计算的一个重要起点是高效率,人脑功率不到20瓦,一天馒头顶没问题;


一台机器的功率是几百瓦,上KW,我们能不能?在算法设计理念上,云端的一些创新设计理念是通过结合来实现的。


目前,无论是先进的结构、先进的包装还是Chiplet,即使很多芯片被包装在一起,功耗仍然是一个问题,在云端使用时会有一些限制。


为了促进这些领域的发展,需要一些新的设计方法、设计构思。


哈亚军:如今,我们已经进入了一个通用智能时代,很多时候,每个人都想用一个平台来解决通用问题。


事实上,在各种模型出现之前,计算架构也出现了类似的问题——是应该使用一个通用的计算平台,还是应该使用一个特殊的计算平台来解决问题?


从我的经验来看,通用芯片市场非常大,难度也很大,所以只有大公司、大团队、大资本才有实力进入这条赛道。,因为许多东西都是通用的,你需要有生态,工具应用。


特殊芯片的优点是应用清晰,目标场景清晰。,您可以找到一些约束,针对约束不断进行优化,对生态等方面的要求相对较少,这样更适合大学和小公司来做。


根据以往计算平台的发展经验,大公司玩通用生存,小公司在专门的计算平台上有更多的机会。


同样的经验也适用于大模型技术的发展。


大型模型强调通用性,但从模型设计的角度来看,一般大型模型很难通吃天下,许多场景下,有些特殊的场景。(小)模型仍然会有一席之地。


黄好城:我公司成立于2015年,从存储芯片开始。


伴随着大型模型的出现和AI技术的发展,每个芯片都嵌入了AI相关功能。,例如,存算一体化,这项技术的出现给我们公司和国内许多非大型芯片公司带来了机遇和挑战。


就机会而言,大型模型对所有计算、存储和传输都有更高的要求。例如,存储的数据越来越多,云和边缘存储的内容越来越多,对带宽和延迟的要求也越来越高。


就挑战而言,一方面,大型模型对服务器的主板芯片要求很高,消耗了大量的能源、资源和碳排放。这反馈到ic设计中,就变成了究竟应该如何设计芯片的架构和每一个模块?


从我们公司的角度来看,在功耗设计方面,每个芯片都对我们提出了更高的要求,从工艺选择、IP选择到每个模块的低功耗设计,从而降低能耗,提高我们的产品竞争力。



同时,随着大模型应用的研发,我们对于存储内容的安全性也有更高的要求。


我们存储的数据是否得到了更好的加密和保护,是否可以被盗或检测到。随着国家一级、二级、三级的提出,我们在研发芯片进行数据安全保护时,对应的要求也越来越高。


02 通用机器人,需要什么样的芯片?

问题:如何设计机器人智能芯片,促进通用人工智能的发展?


程健:设计芯片,首先要了解芯片要解决哪些问题。


机器人需要解决的问题感知、规划、决策、控制几个相关问题。


在这些方面遇到的问题,所需的算法和软件之间存在一些差异。


比如我们以前很多机器人都是围绕MCU进行控制,做一些简单的计算,很多决策都是手工编制的,所以也很简单。


但今天是模型时代,原来很多人工编写的计划、决策算法,今天要用大模型来生成。,因此,对于机器人芯片的使用提出了更高的要求:


第一,端面主板芯片需要更大的算率


要求端侧主板芯片根据大模型实现感知、认知,提供更大的算率。


第二,是否可以基于一个芯片来实现端边算率?


端侧要求的高计算能力不同于云端的高计算能力。云需要做大量的决策和规划。端侧的计算不同于GPU中的张量计算。我们能否将这些端侧的计算需求放在一个芯片上,而不是用几个芯片分开来实现?


第三,机器人需要大量的智能和自主性


我们可以看到,除了感知、规划、决策、控制之外,越来越多的机器人需要更多的智能和自主。


例如,机器人现在可以不断地与环境互动和独立学习,这需要大量的计算来加强学习。这种计算不同于张量计算。现在加强学习有很多分支,有的是基于transformer,有的是基于传统的马尔可夫。


这类机器人应用程序需要大量的计算、取样和迭代,对芯片提出了许多新的要求。


尚德龙:具体服务机器人更注重拟人。,现在市场上的机器人显然没有这种特性。


可以看出,酒店的配送机器人和公园里的清洁机器人遇到人时,通常会先停下来,然后慢慢绕道。他们行动很慢,给人一种不好的感觉。


为了实现更好的体验,感知、决策必须特别快,如果遵循当前的计算系统,毫无疑问,大算率是我们需要的


若不考虑设计方法,大算率相当于大功耗,现在电池技术的发展还跟不上计算的发展,这种技术路径显然很难走下去。,这些都需要我们有新的创新。


类脑计算、大型模型等都是新的创新。


如今的计算、决策、智能,我自己的一个“偏见”就是,它是一种计算感知,一种计算决策,一种计算智能,它非常耗能。


能否成为一个真正像人类一样的智能体,是机器人未来发展应该考虑的问题。


特别是未来的具体服务机器人,例如,未来如果居家老人对康养机器人的感觉很不好,这样的机器人市场也不会很好。


我是做类脑计算的,我还是很佩服的。将现有的计算机制与类脑计算系统相结合,从而找到新的突破口。


哈亚军:关于这一问题,我有两种感觉:


首先,通用智能要与机器人相结合,意味着芯片研究的前沿重点要从云端慢慢发展到边缘端,边缘芯片研究将变得越来越重要


由于本质上,机器人是一个边缘平台。


从最近行业的发展可以看出,很多企业,尤其是原来做算法的企业,都在布局芯片行业。相信未来边缘端的机器人厂商会有更多的布局。


其次,虽然大模型似乎可以解决机器人遇到的所有问题,但我个人并不这么认为,无论是机器人还是无人驾驶汽车,这个算法很难解决他们遇到的所有问题


有时候机器人对决策的准确性要求很高。即使机器人达到了99.9%的决策准确性,当机器人真正与人打交道时,我们对某些情况的准确性需求可能是100%。


在这个时候,我们不能完全依赖智能计算。


我们仍然需要传统的算法才能智能计算出来。


在我看来,传统算法不能丢失,在未来的世界里,传统算法和智能算法将并存,通过各种方式提高决策的准确性。


黄好城:人的聪明程度取决于以前所学的知识,我们的大脑将以前所学的知识储存为记忆,能否很好地利用以前的记忆,决定了人类的聪明程度。


例如,当老年人患上老年痴呆症,失去记忆时,他的智力也无法体现出来。


我们会不断感知周围的环境,在服务机器人上做图像和视频学习。在这个过程中,储存的大量数据是否得到了更好的利用,云端和边缘是否得到了更好的训练,关系到机器人是否足够智能。


当机器人在许多应用领域或处理紧急情况时,它不能从一开始就很好地模拟和训练。如果你想进入千家万户,你需要不断学习和进步,尤其是服务机器人设备。通过高效利用本地存储资源,实现智能化


前面提到的近期存储计算,通过对边缘端存储的数据进行重新分类和预处理,甚至将一些类决策放入边缘端和靠近存储的计算芯片中,一方面可以带来更低的功耗收益,使机器人的续航性能更好,另一方面可以减少机器人对主计算单元的依赖。


03 在ic设计中使用大模型。

问题:ic设计中如何应用AI算法?


黄好城:我们确实看到AI已经开始帮助工程师打代码了。然而,在芯片设计过程中,目前的AI技术帮助工程师打代码而不是工程师。


AI技术在设计方法上带来了许多输入,工程师省略了写作细节,重复模块代码。,可替代AI帮助您生成。


在使用了更多的AI辅助工具之后,工程师将有更多的精力参与到更高级的工作中,作为一些架构师的角色


她们不再需要做设计验证,更多的是做A。、B、综合选择C方案,对比每一个ic设计的模块化方案,这样可以做出更好的PPA。(Performance、Power、Area)评估,而非放到最后,等架构师得到ic设计方案后,再进行数据流、特性的模拟验证。


这样可以很好地提高芯片前端设计。


芯片当然不仅仅是前端设计,还有后端物理实现。


AI在后端物理实现中也有很多应用,因为物理实现中有很多自动布局布线的工作,原来都是靠EDA软件来完成的。


目前我们正与国内一些厂商一起进行AI算法的组合,提高走线自动布局的效率,尝试各种放置方式,使芯片面积做得更好更合理


哈亚军:总而言之,这个问题就是,AI for IC、IC for AI。


如你所见,国内外很多EDA公司的确在整个EDA公司。 在flow的各个阶段,我们可以看到许多这样的例子,考虑使人工智能改变以前的设计方法或工具。


另外,IC还能加快智能EDA工具的发展。


尚德龙:我是国内较早接触EDA工具的人。


实际上,新技术的发展已经不断地融入到芯片设计过程中,现在人工智能技术的发展也将融入到IC设计过程中。


不过,包含IBM、Intel,他们的核心X86芯片不是基于EDA工具,而是一个7-8人的小团队。


因此,在我看来,AI可以赋能IC。从技术发展的角度来看,AI确实在逐步提高EDA工具的效率和水平。然而,如果AI想取代设计师做包罗万象的ic设计工作,还需要时间。


程健:我比尚老师更激进,我个人认为,至少在ic设计领域,AI技术必将完全取代人类。


之所以这么说,是因为,参照人工智能技术的发展经验,AI能做的就是下围棋、玩游戏等有明确规则的事情。


以下围棋为例,AI不仅可以下围棋,而且可以清楚地看到对手是如何下围棋的。在这种情况下,AI往往比人们做得更好。


再来看看ic设计,ic设计的目标也很明确,重点是面积、功耗、功能,这是一个可以规则化、量化的目标。,而且芯片走线,布局也有明确的要求。


从这个角度来看,我认为AI的ic设计必然会取代人类,而且肯定会比人类做得更好。当然,这需要时间。


目前我们的AI布局、走线都做得很好,但做ic设计还存在一些问题,有哪些方面?


我举三个例子:


首先,基于神经网络或transformer的AI模型目前正在进行。仍然缺乏执行任务的准确性。


ic设计通常需要高精度,中间有一个小BUG,整个芯片都被废除了。如何在AIic设计中体现未来的准确性,使其越来越准确,是一个有待解决的问题。


第二,需要将工程师的经验和知识转化为可量化的数据


很多ic设计都是工程师积累的长期经验。这些经历有的是知识,有的是可以描述的,有的是无法描述的。这就需要将这些经验和知识转化为可以量化和规则化AI学习的数据。


第三,很难获得ic设计的数据。


由于DeepMind在设计AlphaGo时收集了大量的棋谱,AI下围棋下得很好,可以说没有AlphaGo没有学过的棋谱。


在芯片行业,互联网上找不到很多信息,开源项目很少。很多芯片公司只能获得一些数据,这对AI学习来说是一个很大的问题。


在我看来,如果能够解决这三个问题,未来AI肯定能够取代人类进行ic设计。


04 生态学是AI芯片的重点

问题:如何从技术创新、人才培养、市场需求三个方面共同推进芯片生态建设?


黄好城:在我看来,最重要的是市场需求。


客户和消费者只有在需要产品的时候才会花钱买单。只有在这些资金的支持下,他们才能促进公司的发展,促进产学研合作,每个人都有一个良好的就业环境,这是一种供求关系。


现在国内的一个好趋势是,各大甲方都更愿意使用国产芯片和存储产品。,不只是尝试,而是大规模出货。


对于芯片公司来说,当我们开发新一代主板芯片时,我们也愿意使用国内IP公司提供的IP产品,我们目前的控制器,Chiplet技术,甚至RISC-V 国内供应商已使用CPU。


在使用了国内供应商的CPU之后,我们也在帮助他们调试他们的CPU,并给他们很多建议。


就学校而言,每年都有更多优秀的毕业生带着自己在学校掌握的AI技术进入公司,这也是企业的好资源,让我们的整个生态不断发展。


哈亚军:本人重点介绍人才培养。


不管是芯片还是人工智能,这两个行业都有一个特点,从某种意义上说,行业领先于学术界,对于人才培养有很多特殊要求。


就人才培养而言,过去更注重培养学生,而要把这件事做好,其实,教师还需要培养,因此,我们需要建立一个新的工程培训体系,这个体系既可以培养学生,也可以培养教师。


从教师培训的角度来看,教师应该每隔几年在企业呆上几个月,了解公司的实际进展和需求,包括教师在学校讲课的教材。学校的企业导师需要及时给出反馈,让他们看看这些教材是否符合企业的需求。


就学生培养而言,要增加流片的机会,增加学生到企业实习,增加学校和公司共同做项目的机会。


学校和企业的定位差别很大,企业追求利润,学校追求科学研究,双方合作也需要完善的合作模式。


尚德龙:我深深地感受到了这个问题,但我只想强调两个字——生态。


商品生态、科研生态、人才培养生态、良好的生态才能真正做到这一点。


程健:然后尚老师教的生态,我想说,事实上,芯片从设计、生产、应用到反馈,形成积极的反馈是非常重要的。


其中一个重要环节是要有人用,只要使用它,就会有积极的迭代。


芯片越没人用越难用,越难用越没人用,会形成恶性循环。


如何使用?


这一问题并非哪个公司,哪个大学,甚至哪个环节可以解决,这是一个需要从整个生态学全局考虑的因素。


我们需要从人才培养、教育、企业等方面共同努力,给我们一些国产芯片的机会。


能否通过国家和公司共同推动我们的硬件生态,将芯片非常便宜或免费送到高校进行人才培养使用。,在生态方面,我认为这是一个值得考虑的问题。


其次,任何行业都要做好人才培养工作,重要的是要“有利可图”


如今那么多人做AI,其实本质上是因为今天大家在AI领域有很多工作机会,公司也可以赚钱。


事实上,芯片需要更多的钱,需要更多的时间,承担更多的风险,走更长的路才能做好。


因此必须要有资金投入,单位和个人都可以在这一过程中赚到钱,才能把这件事做好。


只有BATH,还有国有企业和央企,为了实现大模型时代的芯片时代,这些真正有资源、有应用场景的公司加入进来。


本文来自微信微信官方账号“锌产业”(ID:作者:山竹,36氪经授权发布,xinchanye2021。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com