每经记者:赵雯琪 每经编辑:魏文艺
人工智能大模型技术正从“尝鲜”阶段加速走向规模化应用,AI Infra(人工智能基础设施)领域的商业化探索成为行业焦点。近日,大模型Infra公司硅基流动发布企业级模型即服务(MaaS)平台,旨在为电力、能源、金融等行业提供从算力管理到场景应用的全链路解决方案,推动大模型在关键领域的规模化落地。
国产算力适配突破:DeepSeek模型“当天适配”成标杆
去年春节期间,DeepSeek模型引发全球关注,但也遭遇服务器攻击和官网崩溃等问题。硅基流动率先在华为云昇腾云算力上部署满血版DeepSeek R1/V3模型,成为国内首个实现国产芯片适配DeepSeek的企业。这一突破不仅验证了国产算力的可行性,更让硅基流动在金融、政务等对数据安全要求极高的行业中积累了大量用户。
硅基流动联合创始人胡健在接受《每日经济新闻》采访时指出,随着DeepSeek等开源模型的崛起,企业级市场需求呈现爆发式增长。私有化部署已成为金融、能源、政务等行业的核心需求,而如何在异构算力适配、成本控制与安全保障之间找到平衡点,成为企业AI应用成败的关键。
企业AI需求质变:从技术验证到规模部署
“企业真正大规模使用模型,是从2024年DeepSeek开源后开始的。”胡健透露,硅基流动公有云平台已积累超700万用户和1万多家企业用户。在与这些用户的合作中,公司发现市场已从早期的技术尝试过渡到规模化部署阶段。
他以银行客户为例:“领导突然要求上线新模型,但资源在哪里?不上线的原因是什么?”这一场景反映了企业在模型选型中的决策压力。胡健指出,当前企业在AI大模型落地过程中普遍面临模型适配难、推理性能与成本难以平衡、服务可靠性要求高、输出质量不稳定以及安全合规压力大等痛点。
“许多企业缺乏大规模大模型落地经验的人才,自建团队成本高昂,且对运维性和易用性要求极高。”胡健表示。为此,硅基流动将公有云大规模服务经验转化为标准化产品,降低企业部署和使用大模型的门槛。
企业级MaaS平台:1-3天完成模型适配
据介绍,硅基流动企业级MaaS平台预集成100+主流开源与闭源大模型,提供多种算力卡推理加速包。依托公有云能力,新模型可在1-3天内完成适配并同步至企业私有环境,极大缩短了上线周期。
胡健认为,大模型正如同基础设施般“水电煤化”,其成本将逐渐趋于稳定和透明。“未来模型的成本会像电费一样越来越便宜,但真正的价值会体现在基于模型构建的各类应用上,就像家庭为冰箱、空调付费而非为电付费。”
他同时提到,大模型发展呈现出专业化和垂直化趋势。“现在没有哪家模型公司敢说‘我什么都能做’,大家都在找自己的长板。”这种专业化分工标志着行业正在走向成熟。
国产算力突破:昇腾芯片性能对标英伟达H20
“企业大规模使用大模型时,显卡资源完全不够用。”胡健直言。在国产算力适配方面,硅基流动取得了突破性进展。公司是国内少数大规模使用国产算力卡(如昇腾)对外提供稳定服务的企业,对于主流开源模型,Dense模型可实现“当天适配”,复杂MOE模型“3-7天适配”,并在同规格卡上达到与英伟达产品相当的推理性能。
胡健分享了与华为昇腾的合作成果:“我们第一个用昇腾大规模适配了DeepSeek,跑下来的性能基本上可以对标H20。”在华为超节点上,其推理框架实现了“1920个每秒”的吞吐性能,甚至超过了英伟达H100的表现。
市场竞争:专注大厂未覆盖的细分领域
IDC数据显示,2025年中国AI大模型私有化部署市场规模预计将达到百亿元级别,年复合增长率超过80%。在阿里云、火山引擎、百度云、腾讯云、华为云等巨头林立的市场中,硅基流动如何差异化竞争?
胡健认为,当前AI Infra市场远未到红海阶段。“市场还在飞速变大,我们专注的是大厂目前意愿不强或做起来不经济的领域,尤其是对国产算力深度优化、为对成本敏感且需要私有化部署的中大企业和政企客户提供服务。”
他表示,公司下一步将推动产品从头部客户向更多有规模化应用需求的“腰尾部”企业渗透,进一步降低企业使用大模型的门槛。“我们希望任何企业都能像用水用电一样用上AI能力,无需关心底层是英伟达还是昇腾。”
随着技术不断成熟和生态持续完善,大模型正从炫技阶段走向务实应用。这一转变不仅将重构产业竞争格局,更将深刻影响各行各业数字化转型的路径与节奏。
免责声明:本文内容与数据仅供参考,不构成投资建议,使用前请核实。据此操作,风险自担。