News

新闻中心

时间:2026-02-03

今天,智谱AI正式发布并开源GLM-OCR,以 “小尺寸、高精度” 实现文档解析能力新标杆。沐曦股份曦云C500/C550 GPU充分发挥高生态兼容性、软硬协同能力优势,高效完成与智谱GLM-OCR Day 0适配。此次曦云C500/C550基于Transformer和vLLM框架对GLM-OCR进行适配,在保持优异精度的同时,实现高性能、低延迟推理。


这是继去年12月智谱 GLM-4.6V 系列多模态大模型之后,沐曦再一次完成与智谱AI模型的快速适配。这充分体现了沐曦 MXMACA 软件栈与曦云 C 系列的高兼容性与快速适配能力。曦云C系列依托沐曦全栈自研 MXMACA 软件栈,能实现模型低成本迁移与高效部署,并充分释放自身澎湃算力,为主流大模型提供 “发布即能用”的国产算力底座。


关于GLM-OCR


GLM-OCR作为一款轻量的专业级 OCR 模型,其核心亮点如下:


  • 性能 SOTA:以 94.6 分登顶 OmniDocBench V1.5,并在公式识别、表格识别、信息抽取的多项主流基准中均取得 SOTA 表现;
  • 场景优化:专攻真实业务痛点,在手写体、复杂表格、代码文档及印章等高难场景中表现稳健;
  • 推理高:仅 0.9B 参数规模,支持 vLLM 和 SGLang 部署,显著降低推理延迟与算力开销,适合高并发与边缘部署;
  • 开源易用:同步开源完整 SDK 与推理工具链,环境依赖简单,支持一行命令快速调用,轻松接入现有业务系统。


性能SOTA、精准干活儿


得益于自研 CogViT 视觉编码器与深度场景优化,GLM-OCR 实现了“小尺寸,高精度”。


GLM-OCR 参数量仅 0.9B,但在权威文档解析榜单 OmniDocBench V1.5 中以 94.6 分取得SOTA性能。在文本、公式、表格识别及信息抽取四大细分领域的表现优于多款OCR专项模型,性能接近 Gemini-3-Pro 。



案例实测


除了公开榜单,智谱还针对真实业务中的六大核心场景进行了内部测评。结果显示,GLM-OCR 在代码文档、真实场景表格、手写体、多语言、印章识别、票据提取等维度均取得显著优势。



在实际应用中,GLM-OCR 能精准解析扫描件、PDF、表格及票据,有效解决手写、印章、竖排及多语言混排难题,在复杂版式下依然保持极高的准确率和鲁棒性。


通用文本识别:GLM-OCR支持照片、截图、扫描件、文档输入,能够识别手写体、印章、代码等特殊文字,可广泛应用于教育、科研、办公等场景。


案例:手写公式识别



案例:印章识别



案例:代码识别


*由于长度原因,截图未完全展示模型输出


复杂表格解析:针对合并单元格、多层表头等复杂结构,模型能精准理解并直接输出 HTML 代码。无需二次制表,识别结果即可用于网页展示或数据处理,大幅提升表格录入与转换效率。


案例:跨单元格表格


案例:分段表



信息结构化提取:GLM-OCR可从各类卡证、票据、表格中智能提取关键字段,并输出标准的JSON格式,无缝对接银行、保险及物流等行业系统。


输入图片



prompt:



输出:



批量处理与RAG支持:GLM-OCR支持大批量文档的识别与解析,其高精度的识别能力和规整的输出格式,可为检索增强生成(RAG)提供坚实基础。


更快、更便宜


速度方面,智谱对比了在相同硬件环境与测试条件下(单副本,单并发),分别以图像文件和 PDF 文件为输入,不同 OCR 方法完成解析并导出 Markdown 文件的速度差异。结果显示,GLM-OCR 处理 PDF 文档的吞吐量达 1.86 页/秒,图片达 0.67 张/秒,速度显著优于同类模型。



价格方面,API 输入输出同价,仅需 0.2 元 / 百万 Tokens。1元即可处理约2000张A4大小扫描图片或200份10页简单排版PDF,成本约为传统 OCR方案的1/10。


技术细节


在训练策略方面,GLM-OCR 率先将多 Tokens 预测损失(MTP)引入 OCR 模型训练过程,以增强损失信号密度并提升模型学习效率。并且,通过持续且稳定的全任务强化学习训练,能够显著提升模型在复杂文档场景下的整体识别精度与泛化能力。


上述性能提升还得益于 GLM-OCR 在多模态模型结构上的系统性设计。模型整体采用“编码器—解码器”架构,继承自 GLM-V 系列,由视觉编码器(ViT)、跨模态连接层和语言解码器三大核心模块组成。其中,视觉侧集成了自研的 CogViT 视觉编码器(400M 参数),并在数十亿级图文对数据上引入 CLIP 策略进行大规模预训练,使模型具备了强大的文字与版面语义理解能力。


为实现视觉与语言信息的高效融合,GLM-OCR 设计了一套轻量而高效的连接层结构,融合 SwiGLU 机制并引入 4 倍下采样策略,能够精准筛选并保留关键视觉 Token,将高密度语义信息高效传递至后端的 GLM-0.5B 解码器,从而支撑高精度的 OCR 识别输出。


在整体系统层面,GLM-OCR 采用“版面分析 → 并行识别”的两阶段技术范式。其中,版面分析模块基于 PP-DocLayout-V3 实现,能够在版式多样、结构复杂的文档场景下实现稳定、高质量且高效率的 OCR 解析效果。


开源与在线体验


1.开源地址

  • Github:https://github.com/zai-org/GLM-OCR
  • Hugging Face:https://huggingface.co/zai-org/GLM-OCR


2.模型API

  • 智谱开放平台:https://docs.bigmodel.cn/cn/guide/models/vlm/glm-ocr
  • 特惠尝鲜礼包上线,2.9元享5000万Tokens:https://bigmodel.cn/special_area
  • Z.ai:https://docs.z.ai/guides/vlm/glm-ocr


3.在线体验

  • Z.ai:https://ocr.z.ai
  • 商务合作 Business@metax-tech.com
  • 投资者联系 ir@metax-tech.com