2025年9月29日,DeepSeek-V3.2-Exp模型正式发布并开源,引领AI模型效率新标杆
近日,人工智能领域迎来重要突破——DeepSeek团队正式发布其最新模型DeepSeek-V3.2-Exp,并同步开源全部代码与参数。该模型通过引入创新的稀疏Attention架构,在降低计算资源消耗的同时,显著提升了推理效率,为大规模AI应用落地提供了更高效的解决方案。
稀疏Attention架构:效率与性能的双重优化
DeepSeek-V3.2-Exp的核心亮点在于其采用的稀疏Attention机制。传统Attention计算在处理长序列时面临计算复杂度高的挑战,而稀疏Attention通过动态选择关键信息点进行计算,大幅减少了不必要的运算量。这一改进不仅降低了模型对GPU等硬件资源的依赖,还使得推理速度提升达30%以上,尤其适用于需要实时响应的场景。
华为云MaaS平台首发,大EP并行方案再升级
目前,DeepSeek-V3.2-Exp已正式上架华为云大模型即服务平台(MaaS)。华为云针对该模型的特点,延续了其成熟的大EP并行部署方案,并结合稀疏Attention结构设计了长序列亲和的上下文并行策略。这一策略在保证模型低时延的同时,进一步优化了吞吐性能,使得单卡可处理序列长度突破至32K,满足了金融、医疗等领域对长文本处理的需求。
开源生态共建,推动AI技术普惠化
DeepSeek-V3.2-Exp的开源意味着全球开发者均可基于该模型进行二次开发与创新应用。团队表示,未来将持续优化模型结构,并探索与更多云服务平台的合作,以降低AI技术使用门槛,推动行业整体效率提升。
此次发布标志着AI模型在效率与可扩展性上迈出了关键一步,也为后续长序列处理、边缘计算等场景的应用奠定了技术基础。