TMGM官网

南京老板造算力芯片,带出2800亿巨头

TMGM

本文字数:2154|预计3分钟读完

拿到大单 ,收入增长 。

撰文丨何己派 鄢子为

编辑丨鄢子为

中国版英伟达,披露上市后首份业绩快报。

2月27日,摩尔线程公告 ,2025年营收增至15亿元 ,涨了2倍多,亏损同比收窄约37%,仍在跑步赶路。

60岁的南京人张建中 ,担任董事长兼CEO,为摩尔线程的灵魂人物,曾供职英伟达15年 ,是帮黄仁勋开拓中国市场的得力干将 。

他于2020年创业,经营6年,带出一家芯片巨头 ,目前市值超2800亿元 。

张建带领自建的顶尖GPU团队,加紧攻克难题。

旗舰级产品MTT S5000,已规模量产 ,他还手握三张新王牌,今年要打。

1

主力武器

这份成绩单的最大亮点,在于张建中团队倾力打造的“当家花旦” ,MTT S5000 。

这是摩尔线程旗舰级产品 ,于2024年推出。

基于自研的“平湖 ”架构打造,其是专为大模型训练 、推理及高性能计算而设计的全功能GPU智算卡,已实现规模量产 ,为硬件出货主力。

2月中旬,摩尔线程首次披露MTT S5000的硬件性能参数 。

简单总结下:其单卡AI稠密算力最高可达1000 TFLOPS,配备80GB显存 ,支持从FP8到FP64的全精度计算。

业内人士称,MTT S5000实测性能,对标英伟达H100 ,在多模态大模型微调任务中,部分性能甚至超越H100。

值得一提的是,MTT S5000是国内最早一批 ,原生支持FP8精度训练的GPU 。

在大模型参数持续扩张的趋势下,支持FP8计算精度,已成为训练与推理前沿模型的核心精度标准。

当然 ,芯片好不好用 ,最终得看工程化落地表现。

摩尔线程称,基于MTT S5000构建的“夸娥”万卡智算集群,能高效支持万亿参数的大模型训练 ,“计算效率达到同等规模国外同代系GPU集群 。”

2025年12月,张建中在演讲中提到,过去 ,大部分大模型开发者不敢用国内的卡训练,怕训练的结果不好。

他信心十足地说,“如果此前在Hopper上进行训练 ,如今改用S5000,大语言模型训练效果只会更好,不会更差。 ”

《21CBR》记者注意到 ,2月以来,摩尔连发多则消息,官宣MTT S5000与国产新模型完成适配 ,合作厂牌包括智谱、MiniMax、阿里旗下千问等 。

紧锣密鼓地推进度 ,在于S5000挂钩的AI智算,是业绩增长引擎 。

2025年1-6月,AI智算类业务 ,贡献超九成营收,为收入主力,也是最大利润来源。

招股书显示 ,该板块的产品均价,相对较高。比如智算集群,拿的全是大单 、大客户 ,去年上半年张建中团队卖了5套,平均单价达到1.1亿元 。

在新产品补位前,MTT S5000还得帮张建中再冲锋一阵子。

2

三张新牌

张建中用速度换机会 ,狂追英伟达脚步。

成立以来,摩尔线程的GPU架构,每年迭代一次 ,速度雷打不动 ,年年推芯片新品,以应对市场变化 。

两个多月前,在首届MUSA开发者大会上 ,张建中登台,一口气讲了2个半小时,把自家“武器库 ”的新品 ,全面展示了一遍。

最受关注的,是三张牌:

代号“花港”的新一代GPU架构,基于该架构的两颗芯片——“华山”“庐山 ”。它们代表了摩尔硬件能力的进化水平 。

“花港”采用新一代指令集 ,算力密度提升50%,能效提升10倍,直击智算中心的能耗痛点 ,支持十万卡以上规模智算集群。

两款芯片里,“华山”专注AI训推一体与超大规模智能计算,旨在成为下一代“AI工厂 ”的坚实底座;“庐山”专攻高性能图形渲染 ,几何处理性能提升16倍 ,AI计算性能提升64倍。

摩尔线程董事长兼CEO张建中

结合以往节奏来看,这三款产品或在2026年面市 。

与其他国产GPU企业不同,张建中为摩尔选择的定位 ,是做“全功能GPU”。

全功能GPU追求的是“一芯多能 ”,单一GPU芯片集成AI计算加速 、图形渲染、物理仿真和科学计算等多种能力,同时支持不同计算精度。

这条路线 ,能满足更广泛的应用需求,在元宇宙、世界模型 、具身智能等未来AI的发展趋势下,竞争优势显著 ,相应地,研发难度更大 。

支撑全功能GPU的技术根基,是张建中带队潜心自研的MUSA统一架构 。

MUSA融合GPU硬件和软件功能 ,涵盖统一的芯片架构、指令集、编程模型 、软件运行库及驱动程序框架等要素,已升级至5.0版本,步入成熟阶段。

其不作为单独产品对外销售 ,为摩尔一代又一代GPU的“定海神针”。

3

搭建生态

国产算力要真正做起来 ,光造芯片不够,必须补上生态这块短板 。就像修高速公路,铺好路面只是开始 ,有人用、有车跑,才能繁荣。

张建中打造的MUSA架构,就是想给算力公路定制路标、统一交规 ,让开发者带着大模型,顺畅跑起来。

MUSA具备两个优势,兼容性强 、工具多 。

其自带“万能接口” ,能轻松对接GLM-5、MiniMax M2.5、Kimi K2.5等主流大模型;兼容英伟达主导的主流GPU生态,开发者无需重新写代码 、改造产品。

摩尔线程还备好“现成工具 ”,如原生FP8加速、SGLang-MUSA引擎调优等 ,开发者可以直接拿来用,省时省力,降低迁移、部署的难度。

举个例子 ,2月11日 ,智谱GLM-5刚发布,摩尔线程就宣布,在MTT S5000的支持下 ,完成“Day-0适配” 。

下一步,张建中打算从底层做起,把国产算力生态建起来。

他在演讲中指出 ,要培养人才,以摩尔学院为平台,构建产教融合的开发者成长体系 ,建设MUSA生态枢纽。

据介绍,该学院近20万名开发者,通过“国产计算生态与AI教育共建行动” ,将前沿技术与产业实践,带入全国200多所高校 。

张建中同时发布MUSA开发者计划,旨在为AI学习者 ,提供算力支持与技术赋能。

“我们将迭代完善MUSA架构生态 ,加速推进MTT S5000规模化量产与国产大模型生态快速适配。 ”摩尔线程表示 。

招股书提到,管理层预计最早于2027年,实现合并报表盈利 。2025年净亏超10亿的摩尔 ,有窟窿要填。

越过盈利关口 、建设算力生态,留给张建中的难题,不止一道。

图片来源:摩尔线程 ,除标注外

若您对文章内容有建议或异议,请联系编辑部 。

办公电话:020 87399753

海量资讯 、精准解读,尽在新浪财经APP