DeepSeek-V3.2-Exp模型正式发布并开源:稀疏Attention架构引领效率革新
2025年9月29日,人工智能领域迎来重要突破——DeepSeek-V3.2-Exp模型正式发布并同步开源。该模型通过引入创新的稀疏Attention架构,在降低计算资源消耗的同时,显著提升了模型推理效率,为大规模AI应用落地提供了更优解。
技术突破:稀疏Attention架构重塑计算范式
与传统密集Attention机制不同,DeepSeek-V3.2-Exp采用的稀疏Attention架构通过动态选择关键注意力节点,将计算复杂度从O(n²)降至O(n log n)。这种设计不仅减少了30%以上的GPU算力消耗,更使长序列推理速度提升45%,特别适用于需要处理超长文本的场景。
华为云MaaS平台首发部署
目前,该模型已正式上架华为云大模型即服务平台(MaaS)。华为云采用大EP并行方案部署,结合稀疏Attention结构特性,实现了长序列亲和的上下文并行策略。通过动态负载均衡技术,系统在保持低时延(<50ms)的同时,将吞吐量提升至每秒处理2000+请求,充分满足企业级应用需求。
开源生态共建计划
伴随模型发布,DeepSeek团队同步开放了完整代码库及训练框架。开发者可通过GitHub获取预训练权重、微调工具包及性能调优指南。社区反馈显示,基于该架构的定制化模型在医疗文本分析、金融风控等垂直领域已取得显著效果。