昨天(美国时间10月29日),很多人都在说见证历史。英伟达市值突破5万亿美元,全世界仅此一家。
5万亿美元,什么概念?
如果对比市值,相当于7个腾讯,13个阿里,26个拼多多。
如果折现,能买下全球前十的芯片公司后,还能剩下不少。
如果刮彩票,天天刮,天天中,一天一亿美元,大约要137年。
但英伟达的市值增长,比刮彩票还要快。2023年5月,破万亿。9个月后,破2万亿。3个月后,破3万亿。从3万亿到4万亿,用了410天。而从4万亿到5万亿,只用了113天。同时,英伟达CEO黄仁勋也身价暴涨,成为全世界第八有钱的人。
你看,前后不到3年,英伟达就创造了新的历史。真的,真的让人震撼不已。
震撼之余,一个巨大的困惑随之而来:
既然AI芯片这行业这么赚钱,为什么我们好像只看到英伟达在赚钱?那些本该瓜分这块大蛋糕的对手呢,又在哪儿?
带着这些疑惑,我做了些研究。越来越有种强烈的感觉。
英伟达能有今天的成就,不是偶然。而是一家企业,用近20年时间,从零构建起坚实的护城河,成为全球第一的史诗故事。
看懂英伟达的故事,或许也能给很多企业家和创业者,一些启发和思考。
就让我们先从那个最基础的问题开始。

01
英伟达到底有没有对手?
有。非常多。而且,个个都是顶尖高手。
放眼望去,我们至少可以数出三位重量级的“竞争对手”。
比如,AMD。它和英伟达在半导体领域,是几十年的老对手。论技术、论经验,都绝对是最有资格和英伟达掰腕子的玩家。
比如,英特尔。它是曾经的“芯片霸主”。制造能力强,客户基数大。
比如,谷歌。它几乎有无限的资源,和世界顶尖的AI团队。而且,还在研发自己的专用AI芯片。
你看,这三家巨头,哪个的名头不是响彻全球?
但是,这也让问题变得更尖锐了:牌桌上明明都是高手,但筹码,却似乎都在一个玩家手里。
到底是为什么?

02
为什么好像英伟达“一家独大”?
先说答案,因为英伟达用一套系统,以极高的“迁移成本”,牢牢锁住了它的客户。
你可能会说,那是因为英伟达的芯片,最快最好。
嗯,通常来看,“英伟达的GPU芯片最快最好”,很符合大众的直觉。但实际上,这个回答不够严谨。
什么意思呢?我想请你跟我一起开个脑洞,想象这样一个场景。
AMD的CEO,苏姿丰。走进了OpenAI的办公室,给CEO萨姆·奥特曼,提出了一个非常诱人的提议。AMD有一款全新的GPU芯片,比英伟达的B200,性能高出30%,价格还便宜一半。
如果你现在是萨姆·奥特曼,这份“订单”,你签还是不签?
要我猜,大概率,萨姆·奥特曼不一定会签。至少他会非常、非常地犹豫。
为什么呢?一个更便宜、更高效的选择摆在眼前,都不能让他心动呢?
因为价格只是整个环节里一小部分。在商业技术投资里,要从TCO框架(总体拥有成本)考虑。不光包括最直接的标价,还有各种间接和隐藏成本。
如果光比较价格,AMD优势很大。
比如英伟达的高端芯片A100、H100,单个成本25000美元到40000美元,而AMD高端芯片价格在25000美元左右。
但更重要的,是隐藏成本。它们才是影响OpenAI决策的关键因素。
假如,OpenAI真的从英伟达换到了AMD,会发生什么?
直接说结论,最主要的人力成本、代码迁移成本、运营成本,和机会成本,都会大幅增加。而任何一项变化,都可能直接决定生死。
你想想,换了平台,那上千名顶尖工程师怎么办?他们过去十多年的经验,难道要一夜清零,从头再学吗?这得是多大一笔培训账?还有那数百万行代码,怎么办?那可不是简单的“复制粘贴”啊。
可能,你会问,这换个平台能有多难呢?我不太懂专业技术,请允许我试着打个比方来解释一下。这就像你要把南方的荔枝种到北方。不是说你挖走就行,还要做大量的研究、测试,花上大量的时间。AI就是这样,而最后能不能成,还说不准。
另外,换平台期间,意味着要同时运营维护两套完全不同的平台。这里面的成本,很可能翻倍上涨。
最要命的,也是最大的风险,是机会成本太高。
AI这个赛道,分秒必争。如果为了换个平台,而导致研发落后,或是模型发布晚了几个月。那么,很可能就从行业领导者变成追随者。这里面,还没算上迁移出问题的情况。完全不敢想象。
所以,在把各种直接成本、间接成本相加后,就达成了“锁定供应商”的结果。
说白了,就是我从软件到硬件,全部跟你牢牢绑定。长远看,反而是AI公司的最优解,因为它在未来的合同时间内,不用为硬件担忧。
现在,再回头看AMD那份“性能高30%,便宜一半”的订单,还觉得香吗?
答案是否定的。硬件上省下的几百万美元,比起可能高达数十亿美元的迁移成本和潜在战略风险,微不足道。
到这,你应该发现了,英伟达真正锁住客户的,并不是它的硬件。而是一个看不见摸不着的“牢笼”。
那就是被称为“英伟达护城河”的CUDA。

03
被叫作“英伟达护城河”的CUDA,是什么?
CUDA全名叫Compute Unified Device Architecture(统一计算设备架构)。说白了它是一套让程序员更好用英伟达GPU的编程工具。
对于不太懂技术的人来说,这部分有点复杂。下面我尽量简单说清楚。
要理解CUDA,得先知道什么是“编程模型”。
我打个比方。
过去的计算机,主要靠CPU(中央处理器)运算。CPU像一个米其林三星大厨。手艺高超,什么菜式都能做。但问题是,他一次只能炒一道菜。如果遇上饭点高峰期,爆单是常有的事。
这叫“串行计算”。程序编程必须按顺序执行,上一个任务完成才能做下一个,适合逻辑直观、小规模的任务。遇到复杂的任务,效率就会不足。
而GPU(图形处理器)不同,他不像大厨,而像一个拥有成千上万个小工的“超级厨房”。每个小工负责的东西不一样,可能A切菜,B洗菜,C炒菜,D甜品……最后汇总到超级厨房。如果要给一万斤土豆削皮,那个大厨可能要削到手断,而这边上万个小工可以同时开工,瞬间完成。
这叫“并行计算”。能同时处理多个任务,整体缩短时间,大大提高运行效率。
但是,这里还有个问题。
这成千上万个小工,虽然人多力量大,但是他们很“笨”。必须要有人告诉他们,A你去切菜,B你去洗菜,C你去炒菜……否则,厨房会乱成一团。说白了,必须要有一个统一的指挥,能命令那些小工高效协作干活。
而英伟达的CUDA,就是那个总指挥。有自己的一套指挥语言,精准协调每个核心,完成任务。
做个类比,就像一台相机,硬件非常厉害。想要用好,你要懂光圈、快门、ISO等专业知识,对大多数人来说,门槛太高了。于是,厂商想出了“智能场景模式”,比如运动模式、延时模式等等。你拿到相机,再也不用懂那些专业知识,只要会按一个键,就能拍出好照片。
CUDA就是GPU的“智能场景模式”。开发者不用专门研究GPU的架构,也能高效完成编程任务。简单来说,就是让更多人能用上GPU的强大算力。
2006年,CUDA的问世,直接改变了英伟达的命运。
以前,GPU主要被看作用来渲染画面的“游戏显卡”。CUDA出现后,显卡就能被用在科学运算、物理模拟等领域。
这就意味着,以后的客户不光是游戏公司,各种搞科学研究、技术研发的,都可以服务。
黄仁勋的心里坚定着一个想法:使用CUDA的人越多,这项技术成为标准的速度就越快,就越可能找到新的应用。
于是,英伟达在过去近二十年里,专心做了一件事:围绕CUDA建立了一个庞大、繁荣的生态系统。
跟竞争对手相比,英伟达做这件事,早了将近十年。
如果说,英伟达的GPU是AI时代的“电脑主机”。那么,CUDA就是AI时代的“Windows系统”。
想想看,几十年来,为什么技术上可能更优秀,还免费的Linux,始终不能在个人桌面市场撼动Windows的统治地位呢?
答案,不是系统本身,而是生态。
因为Windows上那个庞大的应用生态太强大了。从微软的office,到Adobe,再到各种行业专用的软件,都跟整个生态密不可分。试想一下,一家需要用到很多专业软件的企业,在买Windows许可证,和重新培训员工的成本之间,会做怎样的选择呢?答案,不言而喻。
CUDA,就是这样,它有着无比庞大的应用生态。对很多企业和个人来说,这是必选项,
有过统计,到目前,全球有超过450万开发者在用CUDA开发。而在2020年的时候,这个数字还是180万。CUDA工具包每月的下载量,高达数十万次。
现在,我们再来复盘下整个逻辑:开发者使用CUDA,创造更多项目和应用,推动CUDA成为行业标准,高校教授CUDA,毕业生掌握技能,企业把CUDA列为招聘条件,更多开发者学习CUDA。
到这,你应该看明白,CUDA为什么能成为英伟达的护城河?因为布局够早,逐渐产生强大的生态惯性。而这也是竞争对手无法撼动。
你看,企业真正的护城河,往往是靠标准、习惯和社区共同搭建。
如果我们现在再回头看AMD给OpenAI的那份提议,你就会发现,压根就不是成本问题。说白了就是风险太大,根本没必要换。
现在,大家是不得不用。而在一开始,英伟达面临的却是“没人想用”。

04
一场无人看好的“豪赌”,成就今天的英伟达
2006年,CUDA问世后,无人在意,硅谷和华尔街都不看好。
到了2008年,受到金融危机的影响,英伟达股价曾暴跌80%以上,市值40亿左右。就连英伟达内部,都对CUDA的未来存在分歧。是不是所有GPU都要支持CUDA?
同时,研发CUDA付出的代价也很大。
英伟达第一款支持CUDA的GPU,是G80。为了开发这款芯片,英伟达花了整整4年时间,成本高达4.75亿美元,占了那4年总研发预算的三分之一。
这还只是“一个”支持CUDA的GPU。
那时候,真的是生死存亡之际。
怎么办?
黄仁勋想了个办法:砸钱。重点往学校和科研机构砸钱。
他通过捐钱、捐设备的方式,让CUDA进入高校,先培养教育和科研领域的用户。另外,还在全球设立各种CUDA研发中心、教学中心、开设教学课程等。那时候,每年砸在CUDA上的研发成本有5亿美元之多。
尽管费尽人力、物力、财力,CUDA在很长一段时间内都不被看好。2013年初,很多投资分析师都认为,只有放弃CUDA,回归PC游戏核心业务,英伟达股价才能涨。甚至,有人质疑,黄仁勋这CEO还能不能干了。
现在来看,英伟达的CUDA,就是在赌。何况,他还赌对了。
为什么CUDA能从无人看好,变成香饽饽?因为学过CUDA的毕业生毕业进了科技企业,CUDA的社区资源和代码库越来越丰富。到2015年,全球已经有800家大学开设CUDA课程。随着时间推移,CUDA的使用场景,从高校普及到了医疗、商用等更多场景。
至于跟人工智能领域“牵手”,可以说,纯属“巧合”。
2012年,斯坦福大学发起的一场全球性AI图像识别竞赛上,多伦多大学的一个三人小组,交出了一个叫AlexNet的AI神经网络,赢得冠军。而且,准确率比第二名高出41%。
怎么做到的?这个团队说,用的是2块NVIDIA GTX 580 GPU,而他们也是整个比赛里,唯一一个用CUDA训练神经网络的队伍。
那时候,谷歌也注意到这个团队。他们发现,AlexNet之前只用两块GPU显卡,得到的效果跟谷歌用16000个CPU训练出来的几乎相同。
很快,整个行业都意识到,GPU是支撑AI的最佳硬件。而英伟达,很可能将成为AI发展的关键。
现在我们都看到了,英伟达确实成了AI发展的最大核心。

05
英伟达的对手们,一点办法都没有吗?
一旦理解了CUDA,再看英伟达的那些竞争者,就会发现,他们的每一步都被英伟达死死限制。
我举几个例子。
比如AMD,它选择开源。
它研发了一个名为ROCm的开源平台,目标就是取代CUDA。但是没,它就像是“AI时代的Linux”,免费,开源,有技术潜力,更便宜。但对用户来说,迁移成本太高。
比如英特尔,它选择细分赛道。
英特尔很聪明,直接承认英伟达在AI高端市场遥遥领先。所以,英特尔把它的Gaudi系列芯片,定位在企业级推理和中小型模型训练这些细分市场。但这也意味着,英特尔放弃了AI芯片市场里最赚钱的部分。
比如谷歌,它选择正面硬刚。
Investopedia有过报道,英伟达在卖GPU中的毛利率大约为80%,业内叫它“英伟达税”。为了不交高溢价,谷歌从2015年开始自研,内部使用名为TPU的算力生态。相比之下,TPU跟谷歌内部平台深度绑定,影响不了英伟达的地位。
所以你看,那些巨头对手们,都不是简单的比拼性能,而是拼战略。都在想办法绕过CUDA,绕过英伟达。
但至少目前看来,无人能撼动。
所有挑战者都在绕着山走,这本身,就是对这座难以攀登的高山,表达最崇高的敬意。

最后的话
呼。说完了。英伟达从无人看好,走到今天的万众瞩目。这一路,真的让人无比震撼。
我看到网上有人表示担心:英伟达涨这么高,太夸张了,会不会是泡沫?它会不会是第二个思科。
这里简单提一下,2000年有个互联网泡沫时期。当时的思科是互联网硬件供应商,最高时,估值超过其远期市盈率的150倍。但在泡沫破灭后,一落千丈。
实际上,他们有根本差异。
思科面对的是“一次性”的建设市场。当早期互联网完成“铺设管道”,思科的增长自然停止。而英伟达面对的,是一个不断增长的市场。至少在现在看来,AI还在成长,那么这场“军备竞赛”还看不到终点。
更重要的是,英伟达的客户,是微软、谷歌、Meta等全世界最不差钱的巨头。对他们来说,购买英伟达的芯片,不是选择,而是在AI时代活下去的必需品。
这说明,英伟达有着一个需求持久、客户稳定、护城河更深的长期市场。
当然,未来会发生什么,我们谁也无法预料。可能某一天,突然有种新的算法出现,可能让GPU也变得不重要,从而改变整个游戏规则也说不准。
但至少在当下,我们可以从英伟达身上,学到非常重要一课。
你的护城河,是什么?
不是在纠结,“我的产品是不是比对手更好、更快、更便宜?”而是要问:“我的产品,有没有一个让客户离不开的生态系统?”
其实,英伟达的五万亿美元市值,就是对这个问题最响亮的回答。
它证明了那个在商业世界,最简单,也最重要的核心逻辑。
最深的护城河,不是用价格和性能堆出来,而是要让你变得无可替代。
祝你,早日找到你的护城河。
参考资料:
1、《吴军·硅谷来信》第244封信丨凡事都要专注——AlphaGo的核心芯片TPU解析
2、《蔡钰·商业参考3》072 | 英伟达如何成为AI芯片巨头
3、Nvidia is officially a $5 trillion company / The chipmaker’s shares rose past $211 as it continues making big moves in AI.
4、AMD Raises AI Chip Price, Confident It Can Compete With Nvidia
5、Why NVIDIA dominates despite low developer program scores,
6、2 Million Registered Developers, Countless Breakthroughs
7、Outrun By Nvidia, Intel Pitches Gaudi 3 Chips For Cost-Effective AI
8、The Untold Infrastructure Advantage That Could Propel Google Ahead of OpenAI in AI Development
9、From Cisco to Nvidia: Lessons From Past Tech Bubbles
10、Nvidia Revolution
11、ImageNet Classification with Deep Convolutional Neural Networks” (NIPS 2012)
观点/ 刘润主笔/ 海盐/ 歌平版面/ 黄静
这是刘润公众号第2760篇原创文章。未经授权,禁止任何机构或个人抓取本文内容,用于训练AI大模型等用途





 猜你喜欢
                猜你喜欢
            