再次融资近5亿元,清华系AI创业新力量,成为最吸金的“算率运营商”
一笔近5亿新融资,投资于AI大模型领域。
独家了解量子位,清华AI创业公司无问芯穹完成A轮融资近5亿元。加码股东的阵容非常完整,非常豪华:
包括北京、上海等地区在内的15个股东一口气增加,国有资产/地方基金,顺为资本/达晨财智等等社交头VC,还有券商直投和产业CVC。
到目前为止,这家创业公司已经成立了1年零4个月,累计融资近10亿元。
这家公司没有透露最新的估值。但更具风向意义的是,据统计,这是国内大型跑道累计融资最高的AI。 Infra企业。
没有之一。

所以,问题来了——这样一家吸金的AI创业公司,是怎么炼成的?
无问芯穹创始人,CEO夏立雪,在对话中给出了答案。
融入这么多钱,为什么不问芯穹?
无问芯穹于去年5月31日成立。
但是这家公司在AI领域积累的开始远远超过了这一天。
确切地说,团队清华NICS-EFC试验室长根。该实验室成立于2008年,全称“Nanoscale Integrated Circuits and System Lab, Energy Efficient Computing Group”,致力于电子工程领域。
这个实验室的领导,就是无问芯穹的发起人,也是这家公司的灵魂人物:清华电子系主任汪玉。
夏立雪是汪玉的学生,是汪玉作为博士生导师带来的医生。创始人和首席执行官都是清华人,现在是电子工程系的副研究员。他们曾担任商汤科技数据和计算平台部执行研究总监,领导建立了万卡集群。
首席科学家、上海交通大学长聘教轨副教授戴国浩是联合创始团队的另一位重要成员,最初从清华电子系获得学士学位和博士学位。
怎么说呢,这个阵容,真的是清华(电子)。
在无问芯穹,这些领队成立了超过150人的团队,其中超过100人致力于AI大模型软硬件技术的研发。
此谓人与。
让我们继续谈论清华NICS-EFC实验室。
向前看,2016年,该实验室成功孵化了AI芯片公司深度学习技术。两年后,全球最大的FPGA(可编程芯片)制造商赛灵思以3亿美元收购了深度学习。
深入了解科技走的路线是从算法等软件方面提高芯片效率,并“起源”NICS-EFC实验室,一直有另外一条不同的路线:
协同软硬件,进行联合优化。
夏立雪说,这条路线的价值在于AI。 1.0时代深受约束。
因为泛化能力不足,每一个小场景都需要量身定制的独立提升,需要一个特定的模型。
然而,在2022年底,ChatGPT出现了,大模型时代就是AI。 2.0时代轰轰烈烈开始。
“大模型的出现是一个重要的转折点,因为它可以使用相同的模型来支持不同的场景。”夏立雪解释说:“这样,我们之前积累的经验和技术就可以通过一次改进来满足多个场景的需求。”
与此同时,AI 2.0也给AI Infra层带来了更大的未来价值。
现在,也许只要付出20%的努力,就可以支撑80%的场景。
大型时代的到来,无疑给无问芯穹的建立和后续发展带来了“天时”。
而且无问芯穹之所以受到市场的青睐,除了上述人和、天时,地理位置也是不可或缺的。
当前形势下,外部计算率入口变细,而国内芯片仍处于增长期。
据不完全统计,已有不少于100个中国计算率集群宣布拥有千卡规模,绝大多数集群已从同构转变为异构。
目前国内的算率似乎既供过于求,又供过于求。算率中心不知道卖给谁,很多人需要用实用的“电”来做各种事情。
骨感和特殊的地方需求,急切地呼吁有人能够整合不同厂家的异构芯片资源,发挥最高效率。
“唯一具有全栈技术能力的创业团队”
所以这次宣布的A轮、四种资方入股的投资,也算是无问芯穹做这件事的底气。
无问芯穹自己算了一笔账,提出了AI模型算力公式:
芯片算率 × 提升指数(软硬协同)× 集群规模(多元异构)= AI模型计算率
这一公式有三个影响因素:
芯片算率:指单芯片的理论计算率,可以通过单位能量的乘法来衡量。
提升指数:是指在单芯片计算率有限的情况下,通过软硬件的联合优化,提高芯片计算能力的利用效率,使单芯片在任务中发挥更大的价值。
集群规模:指无问芯穹通过多种异构算率适应技术,唤起更多的沉睡算率,扩大行业可用的整体算率规模。
这个公式的最终结果代表了中国可以支持的AI量。具体值的意义远不如它提供的认知,即软硬件协同设计和多元异构适应在产业链中能提供多少价值。
计算市场潜力之广是有目共睹的,理所当然的,其背后的技术层栈要求也很高。
无问芯穹要实现模型与计算率的垂直连接,决心打造。全栈技术能力。
为何制作技术全栈?
第一,无问芯穹自问可以做好。
从上层模型应用到底层算率硬件,可以拆除几个层次,包括集群、模型任务改进、框架、算法、硬件定制和优化。
夏立雪分享说,在过去的一年里,该团队已经积累了100多名技术成员。“我们是中国唯一拥有全栈技术能力的团队,除了大工厂。”
第二,全栈技术有利于提供实用的服务。
今年发布的Infini-AI异构云平台是无问芯穹的具体案例。
它整合了世界上第一个支持千卡单任务的异构芯片混合训练平台,具有万卡扩展性,支持包括AMD、华为异腾、 大模型混合训练,包括天数智芯、沐曦、摩尔线程、NVIDIA,可以一键推出700亿参数大模型训练。
将各种集群直接连接起来,让做模型的人和使用模型的人简单地使用它们,打开中间层,这是不问芯穹最重要的区别。
这个想法也体现在无问芯穹的核心理念上。
创业之初,“MxN"这是他们的核心理念。
什么叫“MxN"?就是通过软硬件协同优化的手段,打破不同芯片的不同模型隔离,实现M型与N型芯片的整合统一。
从这个角度来看,它是为了大大提高主流硬件和异构硬件的利用率,通过提供一个好的计算能力平台,高效整合异构算率资源,支持软硬件的联合优化和加速。
构建AI原生基础设施,适应多模型、多芯片格局,最终使异构芯片的计算率表现堪比(甚至超过)英伟达。
值得注意的是,无问芯穹很早就喊出了自己的理想:
降低大模型落地成本10000倍。
据了解,无问芯圆基本上已经降低了1000倍。这1000倍是针对大模型,结合了算法层、硬件层、软件层的联合优化。
正是因为跨层次的联合优化,才能产生“化学效应”,实现模型层的压缩,相应的加速算法才能在硬件层中真正实现这些压缩。
然而,千倍和万倍似乎只有一个“0”的区别,但并非多走几步就能实现。
夏立雪说:“我们已经实现了更深层次的软硬合作,然后将硬件涉及到‘万倍成本下降’,换句话说,如果想要实现模型与硬件的深度结合,就必须相应地调整硬件结构。。”
因此,要真正降低成本一万倍,就需要在终端应用场景中与芯片厂商一起探索和设计适应新需求的芯片结构。这不仅是一个理论假设,也是一个真正投入到新芯片设计和流片过程中的假设。
毫无疑问,这是一个巨大的项目。
对于这一点,无问芯穹表示,在A轮融资所得中,有一部分将专门用于探索端上模型与端芯片相结合的落地项目。
One More Thing
就商业模式而言,无问芯穹并未采用最常见的软件支付模式。
取而代之的是成为“淘宝”。
在智算领域做运营商,直接将软件嫁接到各种集群的硬件基础上,销售tokens。
许多熟悉的面孔,如智谱AIAI大模型领域的头部梯队,、Kimi、生数等,都是它的顾客。
从这个角度来看,无问芯穹已经初步验证了技术能力、产品能力、业务能力和商业模式。
下一步,无问芯穹的选择就是扩大规模。
本文来自微信微信官方账号“量子位”(ID:QbitAI),作者:衡宇,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




