11月21日下午,华为在上海成功举办“2025 AI容器应用落地与发展论坛”,并在会上正式发布并开源了其创新AI容器技术——Flex:ai。这一技术的推出,标志着华为在AI算力资源管理领域迈出了重要一步。
据媒体报道,当前行业内算力资源的平均利用率仅为30%至40%,存在较大的提升空间。华为介绍,Flex:ai通过先进的算力切分技术,能够将单张GPU(图形处理器)或NPU(神经网络处理器)算力卡精准切分为多份虚拟算力单元,切分粒度可达到10%。这一技术使得单卡能够同时承载多个AI工作负载,在无法充分利用整卡算力的场景下,算力资源平均利用率可提升30%,显著提高了资源利用效率。
与英伟达旗下Run:ai只能绑定英伟达算力卡不同,华为的Flex:ai通过软件创新,实现了对英伟达、昇腾及其他第三方算力资源的统一管理和高效利用。这一特性有效屏蔽了不同算力硬件之间的差异,为AI训练推理提供了更加高效、灵活的资源支持。

图片来源:视觉中国-VCG211478193393
华为方面表示,推出Flex:ai的初衷在于,在大模型时代,容器技术与AI是天然的搭档。容器技术作为一种轻量级虚拟化技术,可以将模型代码、运行环境等打包成一个独立且轻量级的镜像,实现跨平台无缝迁移,解决了模型部署时环境配置不一致的痛点。
同时,容器技术能够按需挂载GPU、NPU等算力资源,并根据需求进行分配和回收,从而提升集群整体的资源利用率。第三方机构数据显示,目前AI负载大多已采用容器化部署和运行,预计到2027年,75%以上的AI工作负载将采用容器技术进行部署和运行。
然而,传统容器技术已经无法完全满足AI工作的负载需求,AI时代需要更加智能、高效的AI容器技术。Flex:ai正是应这一需求而生,它通过对GPU、NPU等智能算力资源的精细化管理与智能调度,实现了AI工作负载与算力资源的“精准匹配”,大幅提升了算力资源的利用率。
具体来看,Flex:ai的关键能力包括算力资源切分、多级智能调度以及跨节点算力资源聚合。以算力资源切分为例,Flex:ai能够将单张GPU/NPU算力卡切分为多份虚拟算力单元,切分粒度精准至10%,从而实现单卡同时承载多个AI工作负载的效果,进一步提升了资源利用效率。
每日经济新闻综合上海证券报、公开信息