12月3日,亚马逊云科技(AWS)在拉斯维加斯举行的re:Invent 2025大会上高调揭晓其最新一代AI训练芯片Trainium3,并同步推出基于该芯片构建的Trainium3 UltraServer系统。此举不仅标志着AWS在自研AI硬件领域迈出关键一步,也进一步彰显其与主流GPU生态融合的战略意图。

作为AWS Trainium系列的第三代产品,Trainium3采用先进的3纳米制程工艺,在性能、能效和扩展性方面均实现跨越式升级。据官方披露,相较于上一代Trainium2,新芯片在训练及高负载推理任务中的处理速度提升超过4倍,片上内存容量同样扩充至原来的4倍。更引人注目的是,单台UltraServer最多可集成144颗Trainium3芯片,而数千台服务器还能互联组成规模高达百万芯片级别的超大规模集群——这一集群能力是前代系统的整整10倍。
在全球数据中心能耗问题日益突出的背景下,AWS特别强调了Trainium3在能效方面的突破:整体功耗效率较前代提升40%。这一优化不仅契合亚马逊长期倡导的可持续发展理念,也直接转化为客户成本优势。公司明确表示,新一代系统将帮助使用其AI云服务的企业显著降低推理开销,从而在激烈的AI竞赛中获得更具性价比的基础设施支持。
事实上,已有包括Anthropic、日本大语言模型初创Karakuri、AI音乐平台SplashMusic以及地理空间智能公司Decart在内的多家企业率先部署Trainium3系统,并反馈推理成本大幅下降。这些早期采用者中不乏亚马逊的战略投资对象,显示出其软硬一体化生态的协同效应正在加速形成。
更值得业界关注的是,AWS在此次大会上首次透露了下一代芯片Trainium4的研发进展。尽管未公布具体上市时间,但公司确认Trainium4将支持英伟达的NVLink Fusion高速互连技术。这意味着未来的Trainium4系统不仅能与NVIDIA GPU无缝协作,实现混合架构下的性能叠加,还可继续依托AWS自有的低成本服务器机架设计,兼顾开放性与经济性。
考虑到CUDA生态目前仍是AI开发的事实标准,Trainium4对NVLink Fusion的支持无疑是一次精准的兼容策略。通过降低迁移门槛,AWS有望吸引大量原本深度绑定英伟达GPU的开发者和企业客户转向其云平台,从而在AI基础设施市场争夺中占据更有利位置。
按照AWS过往的产品发布节奏,Trainium4的更多细节或将在2026年re:Invent大会上正式揭晓。而在那之前,Trainium3及其UltraServer系统已开始向全球客户提供服务,预示着自研AI芯片正从技术验证阶段迈入规模化商用新纪元。
