Date: 2026-02-12
今日,智谱AI正式上线并开源全新一代大模型 GLM-5,沐曦股份实现 Day 0 深度适配。 GLM-5目前可于曦云 C 系列(C500/C550/C588)上稳定高效运行。
近期,智谱AI相继发布GLM-4.6V系列多模态大模型及GLM-OCR,沐曦股份均在第一时间完成全面适配。
此次高效适配依托于沐曦股份全栈自研的MXMACA软件栈——该栈原生兼容PyTorch、TensorFlow等主流AI框架,支持模型“零代码”或极低改造成本迁移。MXMACA已于2025年2月正式开源,目前用户规模已突破25万人。
曦云C系列GPU基于沐曦股份自主核心GPU IP打造,兼具高能效比与高通用性,可高效支撑千亿参数级大模型的训练与推理任务。通过深度协同MXMACA软件栈,硬件算力得以充分释放,实现“软硬一体”的极致性能优化。
此次适配再次印证了国产AI“算力+算法”协同发展的可行性与先进性。未来,沐曦股份将持续深耕全栈技术研发,强化软硬协同与生态共建,为国产算力高质量发展提供强劲动能。
在 Coding与 Agent 能力上,GLM-5 取得开源 SOTA 表现,在真实编程场景的使用体感逼近 Claude Opus 4.5,擅长复杂系统工程与长程 Agent 任务。
在全球权威的 Artificial Analysis 榜单中,GLM-5 位居全球第四、开源第一。
GLM-5 全新基座为从“写代码”到“写工程”的能力演进提供了坚实基础:
参数规模扩展:从 355B(激活 32B))扩展至 744B(激活 40B),预训练数据从 23T 提升至 28.5T,更大规模的预训练算力显著提升了模型的通用智能水平
稀疏注意力机制:首次集成 DeepSeek Sparse Attention,在维持长文本效果无损的同时,大幅降低模型部署成本,提升 Token Efficiency
GLM-5 在编程能力上实现了对齐 Claude Opus 4.5,在业内公认的主流基准测试中取得开源模型 SOTA。在 SWE-bench-Verified 和 Terminal Bench 2.0 中分别获得 77.8 和 56.2 的开源模型最高分数,性能超过 Gemini 3 Pro。
即日起,GLM-5 在 Hugging Face 与 ModelScope 平台同步开源,模型权重遵循 MIT License。
GLM-5 已纳入 GLM Coding Plan Max套餐,Pro 也即将上线。开发者可一键兼容 Claude Code、OpenCode、KiloCode 等主流开发工具。接下来智谱将逐步扩大范围,尽力让更多用户体验并使用 GLM-5。
GLM Coding Plan 同步升级 Agentic Engineering 体验:
官方适配 OpenClaw:仅需简单几步即可完成配置,快速开启 Agent 工作流
Pro/Max用户限量赠送 AutoGLM-0penClaw:支持将云端个人A1助手接入飞书,实现办公场景的长任务执行