News
时间:2026-02-03
今天,智谱AI正式发布并开源GLM-OCR,以 “小尺寸、高精度” 实现文档解析能力新标杆。沐曦股份曦云C500/C550 GPU充分发挥高生态兼容性、软硬协同能力优势,高效完成与智谱GLM-OCR Day 0适配。此次曦云C500/C550基于Transformer和vLLM框架对GLM-OCR进行适配,在保持优异精度的同时,实现高性能、低延迟推理。
这是继去年12月智谱 GLM-4.6V 系列多模态大模型之后,沐曦再一次完成与智谱AI模型的快速适配。这充分体现了沐曦 MXMACA 软件栈与曦云 C 系列的高兼容性与快速适配能力。曦云C系列依托沐曦全栈自研 MXMACA 软件栈,能实现模型低成本迁移与高效部署,并充分释放自身澎湃算力,为主流大模型提供 “发布即能用”的国产算力底座。
GLM-OCR作为一款轻量的专业级 OCR 模型,其核心亮点如下:
得益于自研 CogViT 视觉编码器与深度场景优化,GLM-OCR 实现了“小尺寸,高精度”。
GLM-OCR 参数量仅 0.9B,但在权威文档解析榜单 OmniDocBench V1.5 中以 94.6 分取得SOTA性能。在文本、公式、表格识别及信息抽取四大细分领域的表现优于多款OCR专项模型,性能接近 Gemini-3-Pro 。
除了公开榜单,智谱还针对真实业务中的六大核心场景进行了内部测评。结果显示,GLM-OCR 在代码文档、真实场景表格、手写体、多语言、印章识别、票据提取等维度均取得显著优势。
在实际应用中,GLM-OCR 能精准解析扫描件、PDF、表格及票据,有效解决手写、印章、竖排及多语言混排难题,在复杂版式下依然保持极高的准确率和鲁棒性。
通用文本识别:GLM-OCR支持照片、截图、扫描件、文档输入,能够识别手写体、印章、代码等特殊文字,可广泛应用于教育、科研、办公等场景。
案例:手写公式识别
案例:代码识别
复杂表格解析:针对合并单元格、多层表头等复杂结构,模型能精准理解并直接输出 HTML 代码。无需二次制表,识别结果即可用于网页展示或数据处理,大幅提升表格录入与转换效率。
案例:跨单元格表格
信息结构化提取:GLM-OCR可从各类卡证、票据、表格中智能提取关键字段,并输出标准的JSON格式,无缝对接银行、保险及物流等行业系统。
输入图片:
prompt:
输出:
批量处理与RAG支持:GLM-OCR支持大批量文档的识别与解析,其高精度的识别能力和规整的输出格式,可为检索增强生成(RAG)提供坚实基础。
速度方面,智谱对比了在相同硬件环境与测试条件下(单副本,单并发),分别以图像文件和 PDF 文件为输入,不同 OCR 方法完成解析并导出 Markdown 文件的速度差异。结果显示,GLM-OCR 处理 PDF 文档的吞吐量达 1.86 页/秒,图片达 0.67 张/秒,速度显著优于同类模型。
价格方面,API 输入输出同价,仅需 0.2 元 / 百万 Tokens。1元即可处理约2000张A4大小扫描图片或200份10页简单排版PDF,成本约为传统 OCR方案的1/10。
在训练策略方面,GLM-OCR 率先将多 Tokens 预测损失(MTP)引入 OCR 模型训练过程,以增强损失信号密度并提升模型学习效率。并且,通过持续且稳定的全任务强化学习训练,能够显著提升模型在复杂文档场景下的整体识别精度与泛化能力。
上述性能提升还得益于 GLM-OCR 在多模态模型结构上的系统性设计。模型整体采用“编码器—解码器”架构,继承自 GLM-V 系列,由视觉编码器(ViT)、跨模态连接层和语言解码器三大核心模块组成。其中,视觉侧集成了自研的 CogViT 视觉编码器(400M 参数),并在数十亿级图文对数据上引入 CLIP 策略进行大规模预训练,使模型具备了强大的文字与版面语义理解能力。
为实现视觉与语言信息的高效融合,GLM-OCR 设计了一套轻量而高效的连接层结构,融合 SwiGLU 机制并引入 4 倍下采样策略,能够精准筛选并保留关键视觉 Token,将高密度语义信息高效传递至后端的 GLM-0.5B 解码器,从而支撑高精度的 OCR 识别输出。
在整体系统层面,GLM-OCR 采用“版面分析 → 并行识别”的两阶段技术范式。其中,版面分析模块基于 PP-DocLayout-V3 实现,能够在版式多样、结构复杂的文档场景下实现稳定、高质量且高效率的 OCR 解析效果。
1.开源地址
2.模型API
3.在线体验