人工智能基础设施正迎来一场结构性变革。近日,OpenAI 与半导体巨头博通(Broadcom)宣布达成深度合作,共同开发专用于 AI 推理的定制芯片,此举被业内视为对传统“唯 GPU 论”架构的重大突破。据悉,该芯片已完成设计阶段,计划于 2026 年下半年正式部署至 OpenAI 的数据中心,并在未来五年内支撑高达 10 吉瓦(GW)的计算能力规模——这一数字不仅刷新了行业预期,更预示着 AI 算力经济模型将迎来根本性重构。
不同于英伟达当前主推的 H100 或 Blackwell 等通用型加速器,OpenAI 此次联合博通打造的芯片并非对现有产品的简单迭代,而是围绕其“o1”系列推理模型及下一代 GPT 架构进行端到端优化。核心亮点在于采用“系统阵列”(System-on-Array)设计理念,聚焦 Transformer 模型中最耗资源的密集矩阵乘法运算,通过硬件层面的精准适配,大幅提升计算效率。这种软硬协同的策略,使得芯片在执行特定任务时能显著降低冗余开销。
制造方面,这款定制芯片将交由台积电(TSMC)以 3 纳米先进制程代工。更值得关注的是,博通将其在高速互连领域的技术优势深度融入芯片架构——包括集成高带宽以太网和 PCIe 5.0/6.0 接口,从而在单芯片级别实现低延迟、高吞吐的数据传输能力。据内部测试数据显示,得益于整体架构的协同优化,新芯片有望将每个生成 token 的能耗降低约 30%,这对于大规模部署场景下的运营成本控制具有决定性意义。
此次合作的战略意义远超技术本身。长期以来,英伟达凭借其 CUDA 生态和硬件性能牢牢掌控 AI 加速市场,而 OpenAI 转向自研定制芯片,标志着头部 AI 公司开始摆脱对单一供应商的依赖,走上垂直整合之路。这不仅增强了其在与谷歌、亚马逊等云巨头竞争中的自主权,也为其他 AI 初创企业提供了“软硬一体”的新范式参考。
OpenAI 首席执行官萨姆·阿尔特曼将这一战略概括为“从晶体管到 token”的全栈思维。在他看来,唯有掌控从底层硅片到上层模型输出的完整链条,才能真正释放 AI 的规模化潜力。面对 10GW 级别的部署目标,仅靠软件优化已触及天花板,必须回归硬件底层进行重构。这种理念正在重塑整个行业的技术路线图。
尽管前景广阔,挑战同样不容忽视。目前芯片虽已完成设计,但 3 纳米制程的产能限制、先进封装技术的良率问题,以及大规模部署所需的供应链协调,都可能成为 2026 年如期落地的关键变量。然而,无论最终节奏如何,OpenAI 与博通的这次联手,已然为 AI 硬件的下一个时代拉开了序幕。
划重点:
🌟 OpenAI 与博通合作,推出定制 AI 推理芯片,计划在 2026 年下半年首次部署。
⚡ 该芯片采用 3 纳米工艺,优化了 Transformer 架构中的计算,能效提升显著。
📈 OpenAI 通过垂直整合增强竞争力,推动 AI 领域从传统计算向定制硬件转型。
