《科创板日报》9月30日讯(记者 李明明)近日,国产大模型与国产芯片的协同发展进入新阶段,DeepSeek、智谱等企业密集发布新模型,并与华为、寒武纪等国产芯片实现快速适配,标志着国产AI生态正从“可用”向“好用”加速演进。
今日,智谱正式发布并开源新一代大模型GLM-4.6,其整体性能超越DeepSeek最新模型DeepSeek-V3.2-Exp,成为国内大模型领域的重要突破。据介绍,GLM-4.6在公开基准测试和真实编程任务中,代码生成能力已全面对齐Claude Sonnet 4,成为目前国内最强的Coding模型。同时,模型在长上下文处理、推理能力、信息检索、文本生成及智能体应用等方面均实现全面升级。
作为开源模型,GLM-4.6目前是全球开源生态中性能最强的通用大模型之一,其发布进一步推动了国产大模型的技术进步。
在适配性方面,GLM-4.6已在寒武纪的国产芯片上实现FP8+Int4混合量化部署,这是首次在国产芯片投产的FP8+Int4模型芯片一体解决方案。该方案在保持精度不变的前提下,大幅降低推理成本,为国产芯片在大模型本地化运行上开创了可行路径。
此外,基于vLLM推理框架部署,摩尔线程新一代GPU可基于原生FP8精度稳定运行GLM-4.6,印证了MUSA架构和全功能GPU在生态兼容与快速支持方面的优势。
近日,DeepSeek也宣布推出新一代大模型DeepSeek-V3.2-Exp,并同步完成与华为昇腾、寒武纪、海光信息等多家芯片厂商的适配。其中,华为昇腾基于vLLM/SGLang等推理框架实现0day支持,并开源全部推理代码与算子实现;寒武纪宣布已完成对DeepSeek-V3.2-Exp的同步适配;海光信息则表示,其DCU实现对该模型的无缝适配与深度调优,展现出优异性能。
北京计算机学会AI专委会秘书长、北大人工智能博士张有鱼表示,过去是模型去适配芯片,而现在,大模型的算法创新正在反向定义下一代芯片的架构。这种“软件定义硬件”的协同进化模式,是中国AI芯片实现“换道超车”的真正机遇所在。
他进一步指出,随着国产化方案大幅拉低AI的使用门槛,算力成本将逐渐不再是企业应用AI的核心瓶颈。竞争的主战场将彻底转移到如何利用AI创造独特业务价值上,这将真正引爆千行百业的创新浪潮。
随着GLM-4.6的发布,智谱AI同步推出了一套“GLM Coding Plan”升级方案,其核心策略直指“极致性价比”,旨在重塑开发者与企业的AI成本结构。
该方案的竞争力体现在以下几个方面:
对于本次GLM-4.6的这套组合拳,张有鱼表示,智谱的策略非常清晰,其“1/7价格享受相似智能”的定位,本身就超越了单纯的价格维度。当前头部厂商的低价策略,其核心目标并非短期利润,而是长期的“生态圈地”。
他认为,AI大模型竞争的终局,取决于谁能构建最繁荣的开发者生态和积累最高质量的应用数据。较低的API价格,正是实现这一战略目标、抢占未来生态制高点的有效手段之一。