
本文来自微信公众号:王智远,作者:王智远,原文标题:《高通开始造电厂》,题图来自:AI生成
当全球科技圈还在为英伟达的GPU霸权惊叹时,一场静悄悄的算力革命正在酝酿。2025年10月,高通突然宣布推出AI数据中心芯片AI200和AI250,直接杀入英伟达的核心腹地。这场跨界之战不仅关乎两家企业的命运,更可能重塑整个AI产业的能源逻辑。
国际能源署最新数据显示,2024年全球数据中心耗电量突破460太瓦时,其中20%用于AI训练与推理——这相当于阿根廷全国一年的用电量。当单张英伟达H100显卡价格突破3万美元,整柜NVL72系统售价超百万美元时,算力已然成为新型电力产业,英伟达则扮演着AI时代的OPEC角色。
这种垄断带来的副作用正在显现:微软Azure云服务因GPU短缺被迫暂停新用户注册,OpenAI训练GPT-5的电费账单高达1.2亿美元。更严峻的是,根据市场调研机构的数据,2025年全球AI算力缺口将达45%,这相当于需要新建200座百万千瓦级发电站。
在手机芯片市场遭遇增长瓶颈的高通,正将十年积累的能效技术移植到数据中心领域。其核心优势在于独特的"电力榨取"能力:骁龙芯片能在5W功耗下同时处理图像渲染、AI推理和5G通信,这种极致能效比正是破解算力困局的关键。
新发布的AI200芯片在ResNet-50推理测试中,每瓦性能较英伟达A100提升3.2倍。更引人注目的是其动态功耗调节技术,可根据负载在10W-200W间无缝切换,这种灵活性对需要24小时运行的AI数据中心具有致命吸引力。
手机市场萎缩带来的焦虑也在推动转型。2023年高通手机芯片营收下滑23%,而数据中心业务营收同比增长187%。与沙特HumAiN签订的200兆瓦订单,相当于为中等城市提供全年算力支持,这笔价值17亿美元的合同标志着高通正式切入能源级AI市场。
沙特主权基金PIF的这笔投资绝非偶然。作为Vision 2030计划的核心项目,Neom智能城市需要构建全球最大的离网型AI数据中心。选择高通而非英伟达,反映出中东国家对能源逻辑的深刻理解:当石油经济向数字经济转型,掌控算力就等于掌控未来能源。
200兆瓦的订单规模堪称震撼——这相当于同时点亮5万张H100显卡,或满足特斯拉超级工厂的全年用电需求。更值得关注的是,高通提供的不仅是芯片,而是包含电源管理、散热系统在内的完整能源解决方案,这种系统级服务正在重新定义芯片商业模式。
尽管面临挑战,英伟达仍保持着惊人市场统治力。2025年Q2数据显示,其在AI加速器市场占有率高达94%,数据中心业务毛利率攀升至78%。这种优势建立在三大支柱上:覆盖12万开发者的CUDA生态、每秒2.5PB的NVLink网络、以及与全球TOP100超算中心的深度绑定。
但裂缝已经出现。谷歌第七代TPU在推理性能上超越A100,亚马逊Trainium2芯片使训练成本降低40%,微软Maia 100则在Azure云上实现部分替代。这些云巨头正在构建"去英伟达化"的平行生态,通过自研芯片+定制软件栈的组合,逐步削弱CUDA的粘性。
产业变革往往始于技术范式的转换。当前AI领域正呈现三大趋势:
这些变革正在推动AI从"贵族技术"向"基础设施"演进。当中小企业能用千元级设备完成过去需要百万级投入的任务时,真正的智能普惠时代才算到来。
在硬件竞争之外,生态粘性成为新的战场:
这种生态竞争的本质是用户注意力的争夺。当AI渗透到每个工作场景,控制入口就等于控制未来。高通若想在英伟达的阴影下突围,不仅需要证明其芯片能效优势,更要构建起覆盖芯片、开发工具、云服务的完整生态。
这场算力革命远未结束。当AI开始思考如何节省自己的能源消耗时,一个更高效、更民主的智能时代正在到来。高通能否凭借能源逻辑改写游戏规则?答案或许就藏在沙特沙漠中那座正在崛起的AI城市里。
本文来自微信公众号:王智远,作者:王智远
本内容为作者独立观点,不代表虎嗅立场。未经允许不得转载,授权事宜请联系 hezuo@huxiu.com
本文来自虎嗅,原文链接:https://www.huxiu.com/article/4797689.html?f=wyxwapp