又一家国产AI芯片企业敲响港交所大门!
1月25日,港交所正式披露,爱芯元智已顺利通过上市聆讯,并同步发布招股说明书。
在AI应用从概念走向规模化落地的关键窗口期,爱芯元智的业绩曲线陡然上扬。数据显示,公司近三年营收分别为5023万元、2.3亿元和4.73亿元,两年间实现超8倍增长。
这一爆发式增长,既受益于战略并购带来的业务整合效应,更深层的原因在于——AI推理需求正在真实产业场景中加速释放。目前,其AI推理芯片已在视觉终端、智能汽车与边缘计算三大赛道完成规模化部署。
从市场格局看,这份成绩单已将爱芯元智稳稳推入国产AI芯片第一梯队。
按2024年出货量统计,公司在算力不低于1 TOPS的中高端视觉端侧AI推理芯片领域高居全球第一;同时,亦是中国第二大国产智能驾驶SoC供应商,以及国内第三大边缘AI推理芯片厂商。
接下来,让我们深入拆解这家专注于“边缘与端侧”的AI芯片新锐。
/ 01 /
推理算力下沉:边缘与端侧成主战场
理解爱芯元智,首先要厘清AI芯片的两大核心路径:训练与推理。
训练如同“AI的大学教育”,需海量数据反复迭代,依赖高带宽、高算力集群——这是英伟达牢牢掌控的高地。
而推理,则是AI模型“毕业上岗”后的日常执行。每一次人脸识别、自动刹车或语音唤醒,都是一次推理任务。它不追求极致算力,却对低延迟、低功耗和高能效提出严苛要求。
过去,推理多依赖云端。但随着终端设备激增,云端模式暴露出响应慢、隐私风险高、带宽成本高等痛点。
于是,算力开始向数据源头迁移,形成两大方向:端侧芯片(如手机、AI眼镜)与边缘芯片(如边缘服务器、AI盒子)。这些场景要求本地化、实时化处理,数据甚至不宜上传云端。
这催生了一个庞大市场。2024年,全球AI推理芯片市场规模达6067亿元,其中边缘与端侧占比已超一半。而在中国,这一趋势尤为突出——AI正深度融入城市治理、工业产线、交通系统等实体场景,形成对高效、低成本推理芯片的刚性需求。
爱芯元智正是锚定这一赛道。其收入主要来自三块:终端计算产品(占94.5%)、边缘AI推理产品与智能汽车SoC。
其中,面向安防与工业视觉的终端计算芯片是绝对主力。2024年贡献收入4.47亿元,其核心是视觉感知SoC——堪称智能摄像头的“大脑”。
视觉数据占AI感知输入的80%,但处理难度极高:数据量大、环境复杂(如黑夜、逆光)、响应必须毫秒级。这要求芯片在算力组织、内存带宽与能效比上做到极致平衡。
按性能划分,中高端视觉端侧芯片(算力≥1 TOPS)2024年全球市场规模约24亿元。爱芯元智在此细分领域以24.1%的市占率位居全球第一。
此外,其边缘AI推理SoC在国内出货量排名第三;智能汽车业务则聚焦L2/L2+级ADAS,已有多款车规芯片量产,并获多家Tier 1定点。
/ 02 /
两大技术王牌:既要算得省,更要看得清
在边缘与端侧,AI芯片的胜负手不在“算得多”,而在“算得巧”与“看得真”。
首先看能效。传统CPU算不动,GPU又太耗电,专用NPU成为最优解。爱芯元智自研“爱芯通元(Axera Neutron)”混合精度NPU,可根据任务复杂度动态切换INT4/INT8/INT16精度——简单任务降精度省电提速,复杂任务升精度保准确。
这种架构大幅减少冗余计算与数据搬运,有效突破“内存墙”瓶颈。结果是:在相同芯片面积下,其能效比传统GPU架构提升10倍。
其次看感知质量。现实场景图像常受噪声、低照度干扰,若前端成像模糊,再强的AI也无济于事。为此,爱芯元智推出“爱芯智眸(Axera Proton)AI-ISP”,将AI模型嵌入图像信号处理链路,实现像素级降噪、HDR增强与夜视全彩还原。
这意味着,即使在漆黑环境中,也能输出清晰可用的图像,不仅提升推理准确率,还降低回传带宽与系统延迟。
/ 03 /
高增长下的盈利困局:规模扩张与成本博弈
尽管收入飙升,爱芯元智仍未摆脱亏损。2022至2024年,经调整净亏损分别为4.44亿、5.42亿和6.28亿元。
亏损主因有二:一是高强度研发投入,二是毛利率承压。过去三年,公司毛利率分别为25.9%、25.7%和21%,持续下滑。
晶圆成本是最大变量。受疫情后供应链波动影响,上游晶圆价格长期高位运行,直接侵蚀利润空间。
产品均价(ASP)变化也折射出策略调整。终端计算芯片ASP从2022年的48.18元骤降至2023年的4.49元,主因并购华图后低价产品放量;2024年起回升至6元左右,反映中高端产品占比提升。
相比之下,智能汽车与边缘芯片面临更激烈价格战。前者ASP从78.70元降至63.30元;后者从240元降至176元。公司坦言,这是为抢占市场份额主动采取的渗透定价策略。
眼下,爱芯元智仍处于“以规模换未来”的阶段。能否在扩大出货的同时优化产品结构、控制成本,将是其实现可持续增长的关键。短期亏损不足惧,长期竞争力才见真章。
