扫描打开手机站
随时逛,更方便!
当前位置:首页 > 智创未来

阿里云Aegaeon方案入选SOSP 2025,GPU利用率提升82%

时间:2025-10-19 16:04:09 来源:每日经济新闻 作者:每日经济新闻

近日,阿里云自主研发的计算池化解决方案“Aegaeon”成功入选国际顶级学术会议SOSP 2025(操作系统原理研讨会),该方案通过创新性的GPU资源池化技术,有效解决了AI大模型服务中普遍存在的GPU资源浪费问题,将GPU用量削减82%,显著提升了资源利用率。目前,Aegaeon的核心技术已应用于阿里云百炼平台,为AI大模型的高效运行提供了强有力的支撑。

SOSP由ACM SIGOPS主办,是计算机系统领域最具权威性的学术会议之一,平均每年仅收录数十篇论文,被誉为计算机操作系统界的“奥斯卡”。入选SOSP的论文代表了操作系统和软件领域最具创新性和前瞻性的研究成果。在本届SOSP大会上,系统软件与AI大模型技术的深度融合成为新的研究趋势,阿里云的Aegaeon方案正是这一趋势下的重要突破。

在阿里云模型市场为期超三个月的Beta测试中,Aegaeon系统展现了惊人的性能提升。面对数十个参数量高达720亿的大模型,系统所需的英伟达H20 GPU数量从1192个大幅减少至213个,削减比例高达82%。这一数据意味着,企业可以显著降低硬件采购成本,对于需要使用成千上万张GPU的大型模型服务商而言,这一技术突破具有重大的经济价值。

在真实的模型服务场景中,资源分配不均的问题长期存在。少数热门模型(如阿里的Qwen)承载了绝大多数用户请求,而大量不常被调用的“长尾”模型却各自独占GPU资源,导致资源闲置严重。数据显示,在阿里云模型市场中,曾有17.7%的GPU算力仅用于处理1.35%的请求,资源利用率极低。

Aegaeon系统通过GPU资源池化技术,打破了“一个模型绑定一个GPU”的低效模式。其核心创新点在于Token级调度,该系统在每次生成下一个token后动态决定是否切换模型,实现了精细化的资源管理。同时,通过组件复用、显存精细化管理和KV缓存同步优化等全栈技术,Aegaeon将模型切换开销降低97%,确保了token级调度的实时性,可支持亚秒级的模型切换响应。

据介绍,Aegaeon系统支持单GPU同时服务多达7个不同模型,相比现有主流方案提升1.5-9倍的有效吞吐量,实现2-2.5倍的请求处理能力。这一技术突破为AI大模型的高效运行提供了强有力的支撑。

如何从底层系统软件层面优化,以更好地支撑和赋能上层AI应用,已成为全球学术界和工业界关注的焦点。未来AI的发展将不仅依赖于硬件算力的单纯增长,更需要通过系统级的软件创新来深度挖掘现有硬件的潜力。阿里云的Aegaeon方案正是这一理念下的重要实践。

9月24日,在2025云栖大会上,阿里巴巴集团CEO、阿里云智能集团董事长兼CEO吴泳铭明确阐述了AI时代下阿里云的核心战略。他表示,大模型是下一代操作系统,而AI云是下一代计算机。“大模型将取代传统OS,成为连接用户、软件与AI计算资源的中间层。”

吴泳铭宣布,公司正积极推进3800亿元的AI基础设施建设,并计划追加更大投入。到2032年,阿里云全球数据中心的能耗规模将比2022年提升10倍。这一目标预示着阿里云算力投入将指数级增长,为迎接超级人工智能(ASI)时代做准备。

此前公布的2025财年第二季度财报显示,阿里云智能集团收入同比增长26%,创下近三年最高增速。公司整体净利润同比增长76%,表明AI投入已开始产生实效。

吴泳铭在演讲中表示,通用人工智能(AGI)已是确定性事件,但这只是起点,终极目标是发展出能自我迭代、全面超越人类的超级人工智能(ASI)。“AI时代,大模型将是下一代操作系统,超级AI云是下一代计算机。”他说,超级AI云需要超大规模的基础设施和全栈的技术积累,未来,全世界可能只会有5—6个超级云计算平台。阿里云将持续加大投入,迎接超级人工智能时代到来。

吴泳铭宣布,阿里云将重磅升级全栈AI体系,实现从AI大模型到AI基础设施的技术更新。阿里云将全力打造成为全栈人工智能服务商,为AI时代的发展提供强有力的支撑。

为了迎接ASI时代的到来,对比2022年,2032年阿里云全球数据中心的能耗规模将提升10倍。这意味着阿里云算力投入将指数级提升,为AI大模型的高效运行提供更加坚实的基础。

当下,在AI基础设施上,阿里云围绕AI进行了软硬全栈的协同优化和系统创新,已初步形成以通义为核心的操作系统和以AI云为核心的下一代计算机。过去一年,阿里云AI算力增长超5倍,AI存力增长4倍多,展现了强大的技术实力和发展潜力。

每日经济新闻综合公开信息

猜你喜欢