扫描打开手机站
随时逛,更方便!
当前位置:首页 > 财经纵横

工业边缘AI计算赛道升温,设备与芯片厂商抢占风口

时间:2025-09-29 08:48:16 来源:21世纪经济报道 作者:21世纪经济报道

(原标题:工业边缘AI计算赛道升温,设备与芯片厂商抢占风口)

21世纪经济报道记者孙燕 上海报道

第25届中国国际工业博览会上,多家厂商带来了工业边缘AI计算产品:曙光网络发布了新一代国产工业边缘AI计算平台,研华科技也展示了多款基于X86和ARM架构、涵盖6Tops-2000Tops的边缘AI计算产品。

不同于传统的边缘计算设备,边缘AI计算产品集成了人工智能算法,能够靠近数据源进行实时数据处理与分析。

浙商证券预计,DeepSeek引领AI应用浪潮,随着海量终端连接和场景化应用兴起,未来将有超过75%的数据会在边缘侧产生和处理。

而工业数据处理,正经历从云计算向边缘计算,再向边缘AI计算的演进。

从云计算到边缘计算

边缘计算是一种在现场或邻近特定数据源进行的计算形式,其本质是将数据处理从集中式的云计算中心,迁移到数据产生源头附近。

曙光网络总工程师陈冰冰告诉21世纪经济报道记者,工业企业数字化转型的第一步是设备联网,实现设备之间的互联互通,这一过程通常被称为物联网(IoT)的部署。而设备一联网,就出现了边缘计算需求:需要把数据汇集在某个边缘计算节点上进行存储、显示、处理。

“数据处理有两种形式,一个是传到云端去处理,另一个是就近处理。但传到云端存在风险,可能造成数据暴露,此外是在通信带宽有限的情况下,所有数据都上传云端不太现实。”陈冰冰补充道,因此很多工业企业选择就近先处理,把处理后、缩小很多的数据再上传云端进一步处理。

这种分布式架构解决了传统云计算的延迟、隐私、带宽三大痛点:云计算依托集中式算力处理数据,但在工业实时控制和高频采集中面临延迟与带宽压力;而边缘计算通过将计算任务下沉到靠近数据源的边缘节点,能够显著降低传输延迟,支持毫秒级响应,并减少云端依赖、回传成本及隐私风险。

这也能够节约空间、降低能耗:一方面,边缘计算设备通常体积小、集成度高,甚至可以直接嵌入到工业设备中;另一方面,数据传输是能耗的重要来源之一,边缘计算减少了数据传输的距离和频率,降低了传输过程中的能耗。

有工业边缘网关厂商向记者举了这么一个例子,一台约三本书堆叠起来大小的边缘网关便能够覆盖一个充电场站,可以实现传感器采集、图像识别、图像接入、边缘侧数据处理。

工业大模型边缘落地

随着AI模型在工业领域的广泛应用,除了传统的数据处理需求外,推理需求正变得越来越重要。

“边缘AI就是这么来的。”陈冰冰指出,有些数据可以直接在边缘进行推理:企业自建数据中心或者利用公用数据中心训练模型,而后将训练好的模型下发到边缘侧,进行推理计算。

通过将AI算法模型部署至边缘设备,构成了云边端协同:终端获取数据,边缘实时推理识别,推理数据传输上云,云上实现模型统一再训练、再分发,实现模型自主学习迭代、提升识别准确度。

对于传统边缘设备而言,其能够承载小模型(机理模型)。例如,工业边缘计算网关通常只能支持轻量级的推理任务,如设备状态监测或简单的数据预处理。

但大型专业模型通常需要大量的内存和计算资源。玄武大模型工厂总经理李强告诉记者,每次进行推理,大模型需要消耗的算力要比小模型大得多。

为何大模型推理成本高,工业企业依然积极部署?李强解释道,小模型单次推理成本较低,但开发成本高,需要大量数据才能训练出小模型,背后需要的人力成本巨大。而大模型凭借丰富的预训练知识,仅需少量样本即可实现高效的后训练效果,开发成本较低,能快速覆盖长尾场景(样本量、数据量少的场景)。

长期来看,李强指出,与硬件、计算能力相关的成本呈指数下降趋势,未来推理所需的算力成本也会指数下降。“先做到能用,再做到便宜好用,这符合工业领域的成本曲线规则。”

而支持数十亿参数的模型需要强大的GPU或专用AI芯片,这在传统边缘设备中难以实现。

对此,业内开始将GPU、ASIC、NPU、FPGA等AI芯片置于边缘设备之中:如曙光网络的新一代国产工业边缘AI计算平台内置国产GPU加速卡,能够在边缘端独立运行十亿至百亿参数级工业大模型;研华的MIC-ATL2D和MIC-ATL2S边缘AI计算产品搭载升腾Atlas 200I A2加速模块,作为其NPU(神经网络处理器)。

“考虑到当前AI对GPU相关算力的需求,我们在小空间里放了4块双宽大卡。”曙光网络总裁刘立告诉记者,这既符合工业场景没有足够空间用于放服务器的实际情况,又能满足散热和算力需求。

随着AI推理下沉至边缘端,低延迟、高能效的定制芯片需求激增。意法半导体推出的STM32N6系列微控制器,集成了自研的Neural ART Accelerator™ NPU,支持计算机视觉、音频处理等工业级应用。易灵思推出的FPGA产品,支持轻量化AI模型部署,适用于工业视觉、AR眼镜等场景。

信达证券研究指出,尽管边缘AI发展迅猛,但仍需突破算力功耗限制:当前边缘设备平均功耗仅5W,难以支撑7nm以下先进制程芯片散热,需探索RISC-V架构与光电芯片融合方案。