亚马逊收购了一家芯片公司
亚马逊已经达成了80000的协议。 万美金现金收购芯片制造商和 AI Perceivei模型压缩公司 ,后一家是位于加州圣何塞的上市公司Xperi子公司。Perceive 它是一家开发突破性神经网络推理解决方案的公司,致力于为边缘设备提供大型人工智能模型。
亚马逊没有透露他对这项技术的具体想法。亚马逊发言人说:“我们很高兴签署收购协议。 Perceive 协议,并引入其才华横溢的团队,加入我们的努力,为能在边缘运行的设备带来大型语言模型和多模式体验。
Xperi 从今年开始到现在, Perceive 寻找客户。交易完成后,Perceive 的 44 大多数员工都有望加入亚马逊。亚马逊表示,预计这笔交易不需要监管机构的许可,并表示这是一笔常规收购。
介绍Perceive芯片
资料显示,Perceive 由联合CEO组成 Murali Dharan 和 Steve Teig 领导。这家公司的员工遍布全球。这家公司将在爱达荷州经营一个实验室。Teig 在担任 Xperi 在此期间,首席技术官促进了 Perceive 创建,他负责监督科研开发,包括核心音频和显像创新,同时还带领公司的设备学习团队。Dharan 之前负责 Xperi 现在领导负责授权业务的战略方向、管理和增长。 Perceive 经营,包括销售、营销、客户成功和经营。
Perceive 为边缘设备提供大型AI服务。 模型商品,穷旗舰产品是 Ergo AI Cpu,即使电力有限,它也能在各种环境下运行数据中心级神经网络。

据悉,这是一款为边缘设备带来突破性能和能效的设备。 AI Cpu。大型神经网络可以以全帧速率运行,并且支持各种网络结构和类型,包括标准 CNN、RNN、LSTM 等。从目标分类和检查,到图像分割和姿势,再到音频信号处理和表达,Ergo足够灵活和强大,可以处理大量的机器学习任务。因为Ergoo,你甚至可以要求它执行多个任务。 多个网络可以一次运行。
虽然 Ergo 处理能力强,但不需要外部世界。 DRAM,其 7 mm x 7 mm的小包装特别适合相机、笔记本电脑或者 AR/VR 紧凑型设备,如眼镜。
Perceive说,Ergo 能源效率是其它产品 20 到 100 倍,只需 9 mW 计算能力是正确的 30 fps 视频推理。这意味着你的设备可以提供前所未有的电池寿命,产生更少的热量,从而实现更小更多的封装功能。
Perceive于2023年初推出了新的Ergoo 2 AI Cpu。据报道,该芯片可以提供更复杂的用例所需的性能,包括需要变压器模型、更多的神经网络、多个同时运行的网络和多模式输入用例,同时保持行业领先的功率和效率。
Perceive 史蒂夫·泰格创始人兼首席执行官 (Steve Teig) 最新的解释已经阐述 Ergo 当芯片市场机会来临时,他说:“借助新的机会 Ergo 2 Cpu,“这些产品包括语言或视觉处理的转换模型,以及更高帧速率的视频处理,”我们拓展了为设备制造商提供最雄心勃勃的产品的能力。甚至将多个大型神经网络组合到单个应用程序中。”
Ergo 2 启动速度比 Perceive 的第一代 Ergo 芯片的处理量是近四倍,也远远超过微型。 ML 典型的芯片设计。现在,商品开发人员可以借助 YOLOv5、RoBERTa、GAN 和 U-Nets 等待先进的神经网络迅速提供准确的结果。全部 Ergo 2 无需外部存储器,处理全部在芯片上完成,从而提高能效、隐私和安全性。Ergo 2 可以实现芯片:
- 运行 MobileNet V2 每秒进行 1,106 次推理
- 运行 ResNet-50 时每秒进行 979 次推理
- 运行 YoloV5-S 每秒进行 115 次推理
为提供运行这些大型网络所需的性能增强,Ergo 2 芯片采用流水线架构和统一的内存设计,从而提高其灵活性和整体运行效率。所以,Ergo 2 能支持更高分辨率的传感器和更广泛的应用,包括:
语言处理的应用,如语音转文本和句子的完成
音频应用,例如消除声学回声和更丰富的音频事件检测。
视频超分辨率和姿势检查等严格的视频处理任务。
Ergo 2 Cpu宽度为 7 mm x 7 mm,由 GlobalFoundries 使用 无需外部世界,22FDX平台制造 DRAM 即可运行。它的低功耗也意味着它不需要冷却。该芯片可以同时运行多个异构网络,为企业级摄像头等设备提供智能视频和音频功能,用于安全、密钥管理、热成像或零售视频分析;适用于包括视觉检查在内的工业用例;或者整合到笔记本电脑、平板电脑、高档可穿戴设备等消费品中。
自研芯片AWS的过程
多年来, AWS 一直以来都是AI 由于公司在十多年前收购了自己的内部定制硅片,工作负荷和云优化构建了自己的内部定制硅片。 Annapurna Labs。这让AWS 建立自己多年来的自己 Graviton Cpu、Inferentia 芯片和 Trainium 用于云训练的机器学习Cpu AI 模型。
亚马逊今年正在推动人工智能 (AI) 在技术发展方面迈出了重要一步。
在其年度 AWS re:Invent AWS在会上发布了两个新的定制芯片:AWS Trainium2 和 Graviton4。这两个芯片代表着亚马逊网络服务 (AWS) 为了满足日益增长的需要 AI 对功能需求的大胆努力,尤其是在市场上,主要是由于 Nvidia 高性能图形控制部件的生产 (GPU) 严重短缺的情况。
由于生成式人工智能的日益普及,对增强计算能力的需求需要强大的基础设施来训练和部署模型。据报道,Nvidia 的 GPU 直到 2024 业内人士预测,包括台积电CEO在内的年度已经售罄,这种供应困境可能会持续到 2025 年。考虑到这一点,亚马逊的新芯片希望通过提供专门为人工智能工作负载量身定制的替代方案来缓解对方。 Nvidia 的依赖。
Trainium2 芯片专为大规模训练而设计 AI 模型设计,性能比上一代芯片高四倍,能效比上一代芯片高两倍。根据亚马逊的说法,这个芯片在高达 10 在万个单元的集群中使用时,可以处理。 65 数十亿个浮点运算。该功能可以从几个月缩短到几周的训练复杂模型(例如,拥有数千亿个参数模型)的时间。这些进步使 Trainium2 变成 AI 培养基础设施领域的领导者。
Trainium2 芯片因其潜力而得到认可,引起了许多行业参与者的兴趣,包括致力于建立友好型。 AI 模型公司 Anthropic。创始人 Tom Brown 强调Trainium2 它会使它们迅速扩展,响应速度比以前的模型提高四倍。AWS 与 Anthropic 利用专有云技术简化公司间的合作说明 AI 操作趋势日益增加。
另外,Graviton4 该芯片是迄今为止亚马逊最强大、最高效的Cpu,专门为各种云负荷量身定做。与上一代 Graviton3 与此相比,这款第四代芯片的性能有望提高。 核心数量增加30%,增加30% 内存带宽增加50% 75%。通过这些改进,用户可以降低运营成本,提高数据处理率,使其成为运营高性能数据库和密集分析应用程序的公司的理想选择。
Graviton4 包括早期用户 Datadog、Epic Games 和 SAP 等公司。比如,Epic 首席云工程师 Roman Visintine 指出,该芯片在延迟敏感工作负荷方面表现出色,特别有利于在线游戏感受。快速的数据访问和处理在竞争激烈的环境中对成功至关重要,这一云服务优化趋势尤为重要。
亚马逊的声明也凸显了科技行业的更大趋势,即为了满足特定的计算需求,尤其是人工智能和机器学习任务,越来越多的公司投资定制芯片解决方案。通过开发专有硬件,亚马逊希望脱颖而出,减少正确性 Nvidia 和 AMD 等待老牌芯片制造商的依赖。
随着人工智能技术在各个领域的不断发展和普及(从医疗健康到娱乐),对高效高性能芯片的需求只会越来越大。技术分析师预测,这些新的亚马逊芯片不仅会立即满足当前的需求,还会为未来的人工智能发展奠定基础。
令人惊讶的是,这些芯片是在战略时刻推出的,因为微软也宣布开发针对人工智能和云服务的芯片。这在人工智能硬件领域引起了激烈的竞争,促进了企业的快速创新和突破。
AWS Trainium2 和 Graviton4 在不久的将来,芯片有望为客户提供, Trainium2 将于明年某时推出, Graviton4 已经处于浏览阶段。亚马逊有望在这次数字化转型中发挥重要作用,因为科技产业继续转向云计算和人工智能驱动的解决方案。
AI芯片大有作为
AWS频繁使用芯片,不仅满足了公司的项目需求,也再次证明了AI芯片取得了巨大的成就,这不仅体现在云端,也体现在端侧。
根据 Futurum Intelligence的数据, 2023 年,Nvidia 将占据 AI GPU 市场 92% 占据整个数据中心的份额 AI 半导体市场 75% 份额。这一主导地位将在这个已经很大的市场中持续下去,预计到这一点。 2024 年度市场规模将增长近一半。
该分析公司估计,数据中心人工智能技术处理器和加速器的总市场价值将达到 563 亿美金,与 2023 年 377 与年度市场价值相比,亿美元的市场价值增长 49.3%。市场分析师预测,未来五年,市场复合年增长率将达到 使市场规模达到29.7% 2026 年达到 984 亿美金,在 2028 年达到 1383 亿美金。
Futurum 将 AI Cpu市场的数据中心分为四类:CPU、GPU、特殊加速器(称为 XPU)以及谷歌、AWS 公司制造的专有云加速器,如微软。
2023 年,CPU 占据 20.5% 的市场,GPU 占据 73.5% 的市场,XPU 和云专有商品各占优势 3%。
1、2023 年,CPU 占数据中心 AI 处理的 20%,并且将继续发挥重要作用。Futurum 据估计,他们五年复合年增长率将达到 28%,从 2023 年 77 亿美元增长到 2028 年 260 亿美金。Futurum 估计,2023 年,Nvidia 市场份额为 英特尔占37%,其次是英特尔, 23%。
2、到 2023 年,GPU 占数据中心 AI 在应用中使用的芯片组 74%,并且体验 30% 五年复合年增长率,从 2023 年 280 亿美元增长到 2028 年 1020 亿美金。Futurum 估计 Nvidia 占据着 AI GPU 市场的 92% 份额。
3、XPU 将经历 31% 五年复合年增长率,从 2023 年 10 亿美元增长到 2028 年 37 亿美金。
4、公共云 AI 加速器将经历 35% 五年复合年增长率,从 2023 年 13 亿美元增长到 2028 年 60 亿美金。
如果 AI 数据中心不能供公众使用处理器和加速器,Futurum 将其排除在本研究之外,所以不包括在内。 Meta、设计和使用特斯拉和苹果。 AI 芯片组。
就地域而言,北美在市场上占据主导地位, 2023 年将占据 55% 市场份额。欧洲,中东和非洲 (EMEA) 和亚太地区 (APAC) 其次,拉丁美洲成为一个重要的市场, (LATAM) 这就代表了发展中具有巨大增长潜力的地区。
视觉和音频分析是 2023 一年中最大的用例。Futurum 预测 2028 视觉和音频分析、模拟和建模、文本生成、分析和摘要将是多年前的三大用例。
根据Omdia的新研究预测,具体到边缘AI, 2028 年,边沿 AI 创造Cpu市场 602 收益1亿美元,复合年增长率为 11%。
Omdia 最新的边缘Cpu预测指出,随着各行各业和设备使用人工智能,对硬件的需求增加促进了收入的增长。个人计算机领域是英特尔和英特尔,推动市场增长的领域之一。AMD 以及苹果等主要供应商的商品供应量不断增加。据悉,PC 供应商正试图将其设备添加到设备中。 AI 作为“独特的卖点”,Cpu进行营销。
除了个人计算机领域,该报告还强调了人工智能Cpu在车辆、无人机、安全摄像机和机器人等方面的快速应用。
所以我们可以看到AWS收购背后的意图。
本文来自微信公众号“半导体行业观察”(ID:icbank),作者:编辑部,36氪经授权发布。
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com




