News

Date: 2026-02-12

今日,智谱AI正式上线并开源全新一代大模型 GLM-5,沐曦股份实现 Day 0 深度适配。 GLM-5目前可于曦云 C 系列(C500/C550/C588)上稳定高效运行。


近期,智谱AI相继发布GLM-4.6V系列多模态大模型及GLM-OCR,沐曦股份均在第一时间完成全面适配


此次高效适配依托于沐曦股份全栈自研的MXMACA软件栈——该栈原生兼容PyTorch、TensorFlow等主流AI框架,支持模型“零代码”或极低改造成本迁移。MXMACA已于2025年2月正式开源,目前用户规模已突破25万人


曦云C系列GPU基于沐曦股份自主核心GPU IP打造,兼具高能效比与高通用性,可高效支撑千亿参数级大模型的训练与推理任务。通过深度协同MXMACA软件栈,硬件算力得以充分释放,实现“软硬一体”的极致性能优化。


此次适配再次印证了国产AI“算力+算法”协同发展的可行性与先进性。未来,沐曦股份将持续深耕全栈技术研发,强化软硬协同与生态共建,为国产算力高质量发展提供强劲动能。


关于GLM-5


在 Coding与 Agent 能力上,GLM-5 取得开源 SOTA 表现,在真实编程场景的使用体感逼近 Claude Opus 4.5,擅长复杂系统工程与长程 Agent 任务。


在全球权威的 Artificial Analysis 榜单中,GLM-5 位居全球第四、开源第一。



GLM-5 全新基座为从“写代码”到“写工程”的能力演进提供了坚实基础:



  • 参数规模扩展:从 355B(激活 32B))扩展至 744B(激活 40B),预训练数据从 23T 提升至 28.5T,更大规模的预训练算力显著提升了模型的通用智能水平


  • 异步强化学习:构建全新的"Slime"框架,支持更大模型规模及更复杂的强化学习任务,提升强化学习后训练流程效率;提出异步智能体强化学习算法,使模型能够持续从长程交互中学习,充分激发预训练模型的潜力


  • 稀疏注意力机制:首次集成 DeepSeek Sparse Attention,在维持长文本效果无损的同时,大幅降低模型部署成本,提升 Token Efficiency



GLM-5 在编程能力上实现了对齐 Claude Opus 4.5,在业内公认的主流基准测试中取得开源模型 SOTA。在 SWE-bench-Verified 和 Terminal Bench 2.0 中分别获得 77.8 和 56.2 的开源模型最高分数,性能超过 Gemini 3 Pro



GLM-5开源与使用方式


即日起,GLM-5 在 Hugging Face 与 ModelScope 平台同步开源,模型权重遵循 MIT License。


GLM-5 已纳入 GLM Coding Plan Max套餐,Pro 也即将上线。开发者可一键兼容 Claude Code、OpenCode、KiloCode 等主流开发工具。接下来智谱将逐步扩大范围,尽力让更多用户体验并使用 GLM-5。


GLM Coding Plan 同步升级 Agentic Engineering 体验:



  • 官方适配 OpenClaw:仅需简单几步即可完成配置,快速开启 Agent 工作流


  • Pro/Max用户限量赠送 AutoGLM-0penClaw:支持将云端个人A1助手接入飞书,实现办公场景的长任务执行


  • 新增 GLM in Excel权益:原生适配 Excel 环境的 AI插件,支持在侧边栏以自然语言交互,深度赋能数据处理与表格工作流(Beta 期仅 Max 用户可享套餐抵扣)


官方 API接入


  • BigModel 开放平台: https://docs.bigmodel.cn/cn/guide/models/text/glm-5
  • Z. ai: https://docs.z.ai/guides/llm/glm-5
  • OpenClaw接入文档: https://docs.bigmodel.cn/cn/coding-plan/tool/openclaw


在线体验


  • ai: https://chat.z.ai/
  • 智谱清言APP/网页版: https://chatglm.cn/


开源链接


  • GitHub: https://github.com/zai-org/GLM-5
  • Hugging Face: https://huggingface.co/zai-org/GLM-5


Agent


  • AutoGLM: https://autoglm.zhipuai.cn/?channel=AutoGLM_OpenClaw&redeem_modal_open=1
  • Z Code: https://zcode.z.ai/cn


Blog


  • https://z.ai/blog/glm-5


  • Business CooperationBusiness@metax-tech.com
  • Investor Relationsir@metax-tech.com