AWS自研AI芯片Trainium营收达数十亿,挑战NVIDIA市场定价权

本文详细介绍了亚马逊AWS自研的AI训练芯片Trainium的业务进展与技术特点,包括其市场表现、性能优势、与战略伙伴Anthropic的合作,以及未来通过NVLink实现与NVIDIA GPU混合架构的规划,展现了云服务商在AI计算硬件领域的战略布局。

AWS Trainium芯片业务营收达数十亿,挑战NVIDIA定价

在NVIDIA近乎垄断的AI加速器市场中,亚马逊显然开辟了一条自己的道路。根据CEO Andy Jassy的说法,AWS围绕Trainium打造的内部AI计算芯片业务营收已达数十亿美元,这标志着市场对亚马逊降低AI计算成本战略的强烈认可。

Jassy指出,Trainium2系列的发展势头尤为强劲。AWS官方数据显示,其产量已超过一百万颗,并且已有超过10万家企业依赖Trainium2——主要通过Amazon Bedrock平台——来支撑其AI工作负载。

Jassy直言不讳:Trainium在AWS庞大的云客户群中崛起,源于其相较于竞争对手的GPU产品具有更优的性价比。换句话说,通过提供比NVIDIA更便宜,同时提供相当(甚至在某些工作负载上更优)性能的解决方案,亚马逊已成为对成本敏感企业的有吸引力选择。AWS CEO Matt Garman在接受采访时证实,公司的战略合作伙伴Anthropic发挥了关键作用。

Garman透露,在名为“Project Rainier”的联合计划下,Anthropic部署了超过50万颗Trainium2芯片来训练和构建下一代Claude模型。这一重大投入解释了亚马逊为何愿意向Anthropic投资数十亿美元,以换取其承诺将AWS作为其主要模型训练平台。在AWS re:Invent大会上,亚马逊还发布了Trainium3,声称其性能是上一代的四倍,并且能效更高。

然而,面对NVIDIA围绕CUDA软件生态系统建立的强大护城河,亚马逊似乎正在采取更灵活的策略。即将推出的Trainium4被设计为能够通过NVLink Fusion在同一系统内与NVIDIA GPU无缝互操作,打破专有芯片与GPU生态系统之间传统的数据孤岛,为客户提供更具通用性的混合架构。

这标志着从直接的“替代”战略向混合计算模式的转变,使AWS上的客户能够将NVIDIA平台的通用性与Trainium的成本优势结合起来。

从其当前的营收轨迹来看,亚马逊的内部芯片业务已不再是实验性质——它正迅速成为其云战略中稳固的支柱。

comments powered by Disqus
使用 Hugo 构建
主题 StackJimmy 设计