扫描打开手机站
随时逛,更方便!
当前位置:首页 > 智创未来

华为发布AI容器技术Flex:ai,英伟达曾高价收购类似方案

时间:2025-11-21 21:09:17 来源:财联社 作者:财联社

《科创板日报》11月21日讯(记者 黄心怡)在2025AI容器应用落地与发展论坛上,华为公司副总裁、数据存储产品线总裁周跃峰博士正式发布AI容器技术——Flex:ai,并宣布联合上海交通大学、西安交通大学与厦门大学将此项产学合作成果开源。这一举措标志着华为在AI算力资源优化领域迈出关键一步。

Flex:ai核心技术:破解算力利用率困局

本次发布的Flex:ai XPU池化与调度软件基于Kubernetes容器编排平台构建,通过精细化管理与智能调度GPU、NPU等智能算力资源,实现AI工作负载与算力资源的精准匹配。据测试数据显示,该技术可显著提升算力利用率,有效解决行业痛点。

当前AI产业面临双重挑战:一方面,海量算力需求持续攀升;另一方面,全球算力资源利用率普遍偏低。业内人士透露,行业平均利用率仅30%-40%,部分场景甚至低于30%。具体表现为:小模型任务独占整卡导致资源闲置,大模型任务单机算力不足难以支撑,大量通用服务器因缺乏GPU/NPU处于算力休眠状态。

容器技术:AI算力优化的关键路径

作为轻量级虚拟化技术,容器可将模型代码、运行环境等打包成独立镜像,实现跨平台无缝迁移。其核心优势在于:按需挂载GPU/NPU算力资源,动态分配与回收资源,从而提升集群整体利用率。Gartner预测,到2027年75%以上的AI工作负载将采用容器技术部署。

在AI容器领域,英伟达曾于2023年以7亿美元(约合人民币49.7亿元)收购以色列公司Run:ai,其核心产品正是基于Kubernetes构建的GPU调度平台。该平台通过动态调度、池化、分片等技术优化GPU资源利用率,支持深度学习训练与推理任务的高效运行。

Flex:ai三大技术突破:重新定义算力调度

华为此次发布的Flex:ai在虚拟化、智能调度等方面实现关键突破:

  • XPU池化框架(与上海交大联合研发)
    针对小模型训推场景,可将单张GPU/NPU切分为多份虚拟算力单元,切分粒度精准至10%。该技术实现单卡承载多个AI工作负载,通过弹性资源隔离技术使整体算力利用率提升30%,显著提高单卡服务能力。
  • 跨节点拉远虚拟化技术(与厦门大学联合研发)
    针对通用服务器算力闲置问题,该技术聚合集群内空闲XPU算力形成共享池,既为高算力需求提供支撑,又通过高速网络将AI工作负载转发至远端资源池执行,促进通用算力与智能算力融合。
  • Hi Scheduler智能调度器(与西安交大联合打造)
    面对异构算力调度难题,该调度器自动感知集群状态,结合工作负载优先级、算力需求等参数,对本地及远端虚拟化资源进行全局最优调度,实现AI工作负载分时复用资源。

开源战略:推动AI平民化发展

周跃峰表示,Flex:ai的发布旨在推动AI技术普惠化。他举例称:"医院科室通常仅配备8-16张算力卡,传统粗放式调度难以充分利用资源。Flex:ai通过虚拟化技术将单卡切分为更小单元,让每张卡的算力得到充分释放,真正实现AI平民化。"

据悉,Flex:ai将在发布后同步开源至魔擎社区。华为希望通过开源构建以AI容器技术为核心的资源高效利用新范式,联合产学研各界开发者共同制定异构算力虚拟化与AI应用平台对接标准,形成标准化解决方案。