扫描打开手机站
随时逛,更方便!
当前位置:首页 > 智创未来

硅基流动加速布局:小厂如何在大模型赛道突围?

时间:2025-09-19 12:09:01 来源:界面新闻 作者:界面新闻

界面新闻记者 | 伍洋宇
界面新闻编辑 | 文姝琪

2025年初,AI大模型领域迎来关键转折点。硅基流动凭借对DeepSeek V3及R1模型的快速响应,于2月1日率先上线基于国产芯片的适配版本,一举获得市场广泛关注。这一战略决策不仅帮助其收获700万个人用户和1万余家企业客户,更为后续商业布局奠定基础。

初期定位C端市场的硅基流动,通过半年运营观察到显著需求变化。联合创始人胡健透露,企业用户已从试探性应用转向深度场景开发,智能办公、能源系统优化等场景进入规模化部署阶段。这种转变直接推动公司于近期推出企业级MaaS(模型即服务)平台。

该平台整合异构算力管理、模型训练、推理部署等全链条服务,预集成主流开源与闭源大模型,提供多规格算力卡加速方案。其核心优势在于新模型1-3天即可完成适配并部署至企业私有环境,大幅缩短传统数周甚至数月的适配周期。

作为中间层服务商,硅基流动精准定位解决企业部署痛点:模型筛选成本高、适配周期长、性能优化难、升级兼容性差等问题。通过公有云架构增强需求感知能力,同时构建国产芯片软件生态,实现算力运营效率提升30%以上,支持企业「开箱即用」大模型能力。

面对云厂商竞争,差异化策略成为关键。胡健指出,国企客户占比超40%的市场结构,要求平台必须具备异构算力支持能力。针对国产芯片性能短板,团队研发闭源推理引擎覆盖英伟达、AMD、昇腾等主流厂商,实现72B稠密模型当日上线、MoE架构模型1-2天快速适配的行业领先水平。

战略决策的精准性在DeepSeek事件中得到验证。当V3/R1上线前,团队放弃高成本H100方案转投华为昇腾,成功抓住市场空白期。「用户基数从50万暴涨至500万,这个决策让我们赢得10倍增长空间。」胡健坦言,但类似机遇具有不可复制性。

当前更务实的策略是建立快速响应机制:新模型发布后24小时内完成测评,先以1-2台机器验证流量,再根据需求弹性扩展。数据显示,市场呈现明显二八定律——20%的头部模型占据80%的调用量。

商业模式探索仍在持续。项目制收费受限于规模瓶颈,token计费则面临价格下行压力。胡健预测,未来可能参照电力市场实施分级收费,根据行业特性定制差异化费率。IDC数据显示,2024年12月中国公有云大模型日均tokens调用量达9522亿次,较6月增长近10倍,印证算力需求持续走高的行业趋势。

「在年增长率超300%的市场中,小厂既有使命也有生存空间。」胡健认为,当前处于大模型应用服务中期阶段,中间层企业可通过纵向深耕特定场景,将模型功能与行业特性深度绑定,形成差异化竞争壁垒。这种「小而美」的发展路径,或许正是破局关键。