News

新闻中心

时间:2026-04-08

4月8日,智谱新一代旗舰模型GLM-5.1实现开源。目前,沐曦股份曦云 C 系列 GPU已完成该系列模型Day 0 全量适配,再度以全栈自主技术实力,领跑国产 GPU 生态适配赛道。


相比于GLM-5,GLM-5.1的整体能力得到了全面提升,是目前全球最强的开源模型。GLM-5.1的代码能力得到进一步提升,在最接近真实软件开发的SWE-bench Pro基准测试中超过GPT-5.4、Claude Opus 4.6,刷新全球最佳成绩。


值得一提的是,在模型整体性能大幅提升外,GLM-5.1还在长程任务(Long Horizon Task)处理能力上实现了显著突破。有别于当前以分钟级交互为主的模型,GLM-5.1能够在单次任务中持续、自主地工作长达8小时,凭借自主规划、执行与迭代进化,最终交付完整的工程级成果。


此前,由智谱发布的基座模型GLM-5、文档解析模型GLM-OCR、多模态系列模型GLM-4.6V,沐曦股份均实现Day 0适配。依托曦云 C 系列硬件算力与 MXMACA 软件栈深度优化,GLM-5.1模型在沐曦平台实现“开箱即用、性能无损”,企业与开发者无需改码、无需等待,模型发布当日即可完成生产级部署。


发布即可用,产业落地无忧


沐曦曦云C系列GPU适配后的GLM-5.1,在代码生成、复杂推理、长文本理解等核心纯文本场景中,满血释放原生模型能力。


从单机部署到千卡级集群商用,从企业级智能办公到代码开发、知识库搭建,沐曦曦云C系列为GLM-5.1提供全场景、高稳定、低成本的国产算力方案,有效解决大模型落地过程中“适配慢、迁移难、性能损耗大”等行业痛点,助力企业快速将GLM-5.1的技术优势转化为产业价值。


自 2025 年 12 月以来,沐曦已完成十余款主流模型 Day 0 适配,覆盖智谱、通义千问、阶跃星辰、百度飞桨等头部厂商最新旗舰,实现语言、多模态、OCR、翻译全品类覆盖,适配数量、速度、广度均居行业领先地位。本次GLM-5.1 无缝适配,将进一步推动“模型-芯片-框架-应用”自主闭环加速成熟。


全栈自研软硬一体,持续赋能千行百业


此次沐曦高效完成GLM-5.1的Day 0适配,并非简单的移植兼容,而是基于“自研GPU硬件+MXMACA全栈软件”的深度协同优化。


曦云C系列GPU专为AI大模型训推场景设计,硬件规格原生匹配GLM-5.1的高算力、高带宽需求。沐曦自主研发的MXMACA软件栈已实现对国际主流生态的高度兼容,可支持超过6000个主流生态应用及超过1,000个模型的原生适配,包括多个大模型的Day 0适配。


自2025年2月开源社区开放以来,截至2026年3月,MXMACA注册用户超过30万人,API调用次数超过5591万次,文件下载量超过16万次,并已覆盖超过半数的C9高校。


沐曦将持续深耕全栈 GPU 技术,深化与主流大模型、开源社区及产业伙伴协同,以更快适配速度、更强性能表现、更完善生态支持,为金融、医疗健康、能源、教科研、交通、大文娱等领域提供安全、高效、自主可控的国产算力底座,与生态伙伴共筑中国 AI 产业创新未来。


关于智谱GLM-5.1


GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,GLM-5.1能够在一次任务中独立、持续地工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。


代码能力是模型智能水平进一步提升的关键。下图是业内最具代表性的三个代码评测基准的平均结果,包括衡量模型专业级软件开发工作的SWE-Bench Pro、像工程师一样操作命令行解决问题的Terminal-Bench 2.0、从零构建完整代码仓库的NL2Repo。三项综合平均分,GLM-5.1取得全球模型第三、国产模型第一、开源模型第一



在最接近真实软件开发的SWE-bench Pro基准测试中,GLM-5.1刷新全球最佳成绩,超过GPT-5.4、Claude Opus 4.6。SWE-Bench Pro要求模型在真实GitHub仓库中定位并修复高难度工程Bug,是衡量模型能否胜任专业软件开发的最硬指标。



过去两年,行业用Benchmark衡量模型有多智能。GLM团队认为,下一阶段的衡量标准应该是“能工作多久”,即模型在长程任务(Long-Horizon Task)中的表现,能独立完成多长时间的人类任务。


这对模型提出了更深层次的挑战。在长程任务中保持稳定输出,模型面对的不只是更大的代码量,而是一连串复杂的工程决策点:主动跑benchmark、定位瓶颈、修改方案、再跑测试。模型需要像一个真正的工程师一样,形成“实验→分析→优化”的完整闭环,而不是写完一版代码就停下来等人打分。


在METR榜单的同等评估标准下,GLM-5.1是唯一达到8小时级持续工作的开源模型,也是全球范围内除Claude Opus 4.6外少数具备这一能力的模型。GLM团队的终极目标是全自治智能体(Autonomous Agent),模型7×24小时不间断地分解目标、执行交付、自我评价与纠正、自我进化,从此无需人类介入。


使用以下命令获取沐曦GLM-5.1推理镜像

docker pull pub-registry1.metax-tech.com/ai-opentest/dev/vllm-metax:0.14.0-maca.ai3.5.3.102-torch2.8-py310-ubuntu22.04-amd64_glm_w4a8_full


GLM-5.1模型地址

Hugging Face:

https://huggingface.co/zai-org/GLM-5.1

ModelScope:

https://modelscope.cn/models/ZhipuAI/GLM-5.1

  • 商务合作 Business@metax-tech.com
  • 投资者联系 ir@metax-tech.com