| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

溫哥華資訊

溫哥華地產

溫哥華教育

溫哥華財稅

新移民/招聘

黃頁/二手

旅游

一場英偉達引發的大泡沫,快破了?

QR Code
請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!



5月中,關稅暫停的 90 天窗口期,一場圍繞算力核心資源的爭奪戰驟然升溫。

“服務器價格波動劇烈,前段時間每台價格已上浮 15%-20%。隨著關稅暫停,我們計劃恢復原價銷售。” 某南部地區芯片供應商向虎嗅透露。


與此同時,市場供給端也迎來新變量。虎嗅獨家獲悉,英偉達 Hooper 系列高端產品與 Blackwell 系列已悄然現身國內市場,前者的現身時間點大約在2024年9月,而後者就發生在最近。華銳智算相關高管表示,“不同供應商的獲取貨源渠道都各不相同。”而這背後的復雜供應鏈網絡無從探尋。

(虎嗅注:從2023年10月17日開始,華盛頓方面分階段叫停了英偉達對華出售的芯片,包括A100、A800、H800、H100、H200;近期Hooper系列最後一張能夠對華出售的H20也列入到限制出口名單)

其中,英偉達Hooper高端系列通常指H200,是H100芯片的升級版,前者比後者價格僅高出二十幾萬,但效率卻高出30%。而Blackwell系列屬於英偉達的高端系列,其中B200價格高達300多萬,也是目前“流通受限”最嚴的產品,其流通路徑更為隱秘。這兩款均用於大模型預訓練,而B200更是“一卡難求”。

回溯時間線,2024年4月,一張黃仁勳與OpenAI CEO奧特曼(Sam Altman)、聯創布羅克曼(Greg Brockman)的合影流傳在推特上。這張合照背後是H200首批產品的關鍵交付節點——英偉達CEO黃仁勳親自送貨上門,而OpenAI正是H200的第一批用戶。

短短5個月後,大洋彼岸就傳來了H200的貨源消息。如今,國內已有供應商具備每周 100 台 H200 服務器的供應能力。據該供應商透露,隨著 H100 停產,市場需求正加速向 H200 轉移,目前掌握 H200 貨源的供應商不超過十家,供需缺口進一步拉大。

“現在市場上最缺的就是H200,而且據我所知,有一家雲廠最近正在各處找H200。”一位從事算力行業18年的老玩家告訴虎嗅,他們長期為百度、阿裡、騰訊、字節供應算力服務。

在這場算力軍備賽中,交易鏈條籠罩著神秘面紗。某國內頭部算力供應商表示,行業通行的算力計價規則是,合同中僅標注算力單位 “P”,將服務器交易轉化為抽象的算力交易。(虎嗅注:P是算力的計算單位)比如在算力使用方與算力供應商進行算力交易時,並不會直接將卡的型號寫進合同內,而是用多少P的算力來代替,也就是說在明面上並不會把具體的卡型號寫進去。

深入產業鏈底層,隱秘的交易網絡浮出水面。此前有媒體披露,部分中國經銷商通過特殊采購渠道,經多層轉售與包裝,實現服務器 “曲線上市”。而虎嗅進一步了解到,還有部分經銷商另辟蹊徑,借助第三方企業,通過將模組嵌入產品的方式,獲取服務器。

在暗流湧動的產業鏈背後,國內算力產業的發展也正在呈現新的走向。

智算泡沫從何而來?

2023年末,來自大洋彼岸的“英偉達禁令”,如同一塊巨石投入平靜的湖面,一場圍繞算力核心資源的暗戰隨之打響。

最初的幾個月,市場呈現出一種原始的混亂與躁動。暴利的誘惑之下,一些嗅覺敏銳的個體開始鋌而走險。“當時市場上充斥著各種背景的‘供應商’,有海外歸來的留學生,也有一些消息靈通的個人倒爺,”一位不願具名的行業人士回憶道,“他們的流轉方式相對簡單粗暴,雖然交易依然隱秘,但遠未形成後來那種層層轉包的復雜鏈條。”

這些早期的“拓荒者”們,利用信息差和各種非正規渠道,將英偉達高端顯卡,輾轉供給到市場。由此,顯卡的價格自然水漲船高。據一些媒體報道,在他們當中,一些個人供應商甚至將英偉達A100顯卡標價至12.8萬元人民幣,遠超其約1萬美元的官方建議零售價。更有甚者,有人在社交媒體平台中手持H100芯片,稱其單片售價高達25萬元人民幣。在當時,上述的種種行為和姿態可以說近乎炫耀式的。



在這種隱秘流通之下,一些大型算力供應商已經開始具備類似的交易網絡渠道,而由此引發的智算熱潮也在同時期興起。2022~2024年間,多地搶建智算中心。有數據顯示,單單是2024年,智算中心項目就超過了458個。

然而,這場轟轟烈烈的“炒卡及智算熱潮”並未持續太久。到了2024年末,尤其是在DeepSeek等國產大模型以其高性價比橫空出世後,一些單純依賴“囤卡居奇”或缺乏核心技術支撐的算力供應商發現,他們的故事越來越難講下去了。智算的泡沫,也逐漸出現破裂跡象。

有數據統計,2025年第一季度,中國大陸共有165個智算中心項目出現新動態,其中高達58%(95個)的項目仍處於已審批或籌建狀態,另有33%(54個)處於在建或即將投產狀態,而真正實現投產或試運行的,僅有區區16個,占比不足10%。

當然,呈現出泡沫破裂跡象的不只是國內。近半年來,Meta、微軟等都傳出暫停部分全球數據中心項目。泡沫的另一面是令人擔憂的低效與閒置。

有行業人士告訴虎嗅,“目前智算中心的點亮率不足50%,國產芯片由於性能短板,根本無法用於預訓練。而且有些智算中心使用的是相對落後的服務器。”

這種“有卡用不起來”的現象,被行業人士歸結為“結構性錯配”——並非算力絕對過剩,而是有效的、能滿足高端需求的算力供給不足,同時大量已建成的算力資源因技術代差、生態不完善或運營能力不足而無法被充分利用。

然而,在喧囂與隱憂並存的智算版圖上,科技巨頭們卻展現出截然不同的姿態。

據報道,字節跳動計劃在2025年在AI基礎設施上投入超過123億美元(約合892億元人民幣),其中400億元預算將用於在中國采購AI芯片,另有約500億元計劃用於購買英偉達芯片。對此,字節方面向虎嗅回應稱,消息不准確。

同樣在AI方面大手筆投入的還有阿裡。CEO吳泳銘在2月24日公開宣布,未來三年阿裡巴巴擬投入3800億元建設AI基礎設施。這一數字甚至超過了過去十年的總和。

但面對大手筆采購,供給端的壓力也在突顯。"市場的供貨都來不及供給大廠們,好多公司簽約了都交不出貨。"一位智算供應商的銷售人員對虎嗅說道。

對比之下,上述的智算泡沫與如今大廠這種大手筆地投入AI基建,似乎形成鮮明對比:一邊是以A股為首的算力供應商紛紛叫停大型智算項目,另一邊大廠則在積極投入AI基建。

而這背後的原因並不難理解。因為智算急劇降溫的時間點恰出現在DeepSeek前後。從今年開始,再也沒有人提出“百模大戰”相關概念了,DeepSeek戳破的是訓練需求的泡沫。如今還留在牌桌的只剩下大廠和個別AI模型公司。

對此,常壘資本管理合伙人馮博也對虎嗅說道,“當訓練不是百花齊放的時候,那真正有訓練能力和資格的人還會繼續買卡訓練,比如阿裡和字節,而那些沒有能力做訓練的人就曲終人散了,這些人手裡的算力就變成了泡沫。”

被退租的算力


任何"泡沫"的誕生都根植於人類對稀缺性的非理性想象。炒茅台和囤算力的人本身並非是茅台愛好者、算力消納方,而都共同有著投機心理。

截止到2024年底、2025一季度,飛利信、蓮花控股、錦雞股份等多家公司又相繼終止了數億元的算力租賃合同。與此同時,有算力供應商告訴虎嗅,“在算力租賃的生意裡,退租是常有的事。”

這些終止租賃的企業並非真正的算力需求終端。隨著 DeepSeek 引發的行業震蕩,AI 行業泡沫逐漸破裂,眾多算力供應商不得不直面算力過剩難題,四處尋覓穩定客源,探索新的算力消納路徑。

虎嗅在調查中發現,一位算力供應商創始人的名片上,除了三家智算、雲計算領域的企業,還赫然印著一家投資公司。進一步深挖發現,該投資公司的被投項目涵蓋一家機器人公司與一家專注大模型和雲系統研發的企業。該創始人向虎嗅透露,“這兩家被投企業的全部算力需求,均由自家的算力供應體系來滿足;而且被投企業通常會以市場低價購買自家供應的算力。“

實際上,在智算產業裡,像智算+投資綁定的形式絕非孤例。對於不少算力供應商而言,“這是目前消納卡很好用的方式,只不過沒有被擺到台面上。”馮博對虎嗅表示。

不過,在上述的故事中,這是一種“壟斷式”的算力消納路徑,即算力供應商通過投資鎖定算力需求,並直接滿足被投項目的全部算力需求。但並非只有這一種方式。

馮博認為,還有一種模式是,”算力供應商以 LP 身份切入產業基金,構建閉環式算力需求鏈條的模式值得關注。“



具體而言,該商業模式呈現出資本聯動特征:算力供應商 A 作為潛在有限合伙人(LP),與產業基金 B 達成合作意向。在 B 基金的投資版圖中,AI 應用廠商 C 作為被投企業,其業務發展對算力資源存在剛性需求。此時,A 通過戰略投資 B 基金,間接綁定 C 公司未來的算力采購需求,構建起“資本投入 - 算力采購”的閉環。

若交易落地,A 公司將憑借 LP 身份獲得優先服務權,成為 C 公司算力采購的首選供應商。這種模式本質上形成了資金的循環流動 ——A 公司對基金 B 的出資,最終通過 C 公司的算力采購回流。




“這不是一種主流方式,但卻是一種還比較好用的方式。”馮博坦言。

泡沫快破了,然後呢?

“談智算泡沫就不能只談算力,它是一個產業鏈的問題,想讓算力用起來,需要把斷掉的點串起來,現在這條產業鏈還並未形成閉環。”一位深耕行業多年的算力供應商首席營銷官向虎嗅精辟地指出了當前智算產業的核心症結。

進入2025年上半年,AI領域一個顯著的趨勢是,曾經被各大AI公司掛在嘴邊的“預訓練”一詞,其熱度正逐漸被“推理”所取代。無論是面向廣闊的C端消費市場,還是賦能千行百業的B端企業級應用,推理需求的增長曲線都顯得異常陡峭。

“不妨做一個簡單的推演,”一位行業分析人士估算道,“以目前市場上主流AI應用的體量來計算,如豆包、DeepSeek等為例,假設其每個活躍用戶平均每日生成10張圖片,這背後所牽引的算力需求,便可能輕易達到百萬P級別。這僅僅是圖像生成這一單一場景,若疊加文本、語音、視頻等多模態交互,其需求量級更是難以估量。”

這還僅是C端用戶的推理需求。對於B端用戶,推理需求更是海量。華銳智算某高管告訴虎嗅,車廠建設智算中心都是萬P規模起步,“而且我們的客戶中除了大廠,有最多算力需求的就是車廠。”

然而,再將海量的推理需求與算力泡沫聯想到一起,故事就顯得異常荒謬。為什麼這麼多的推理需求還是會產生算力泡沫?

某算力供應商對虎嗅表示,像這樣海量的推理需求,需要智算服務商通過工程化技術對算力進行優化,比如壓縮起跑時間、提高存儲量、縮短推理延遲、提高吞吐量和推理精度等等。

不僅如此,上文提到的供需錯配問題,還有一大部分是來自於芯片問題。對此,有行業知情人士向虎嗅表示,一些國產卡和英偉達的差距還是比較大,它們自身表現發展不勻,同一品牌即使堆再多的卡短板依然存在,這就導致了單一集群無法有效完成AI的訓練和推理。

這種‘短板效應’意味著,即便通過大規模堆疊芯片來構建算力集群,如果短板問題得不到有效解決,整個集群的綜合效能依然會受限,難以高效支撐AI大模型的復雜訓練與大規模推理任務。

事實上,算力層面的工程挑戰和芯片瓶頸固然嚴峻,但許多深層次的算力需求未能得到有效滿足,其真正的“斷點”往往出現在算力層之上的應用生態,特別是L2層(即針對特定行業或場景的)垂類模型的嚴重缺口。

在醫療產業就有這樣一個需要填補的巨大“窟窿”,人才虹吸效應是國內醫療體系裡長期被詬病的結構性問題,優秀醫生都集中在一線城市的三甲醫院裡。但當業界寄希望於醫療大模型實現優質醫療資源下沉時,一個更根本的挑戰浮出水面:如何構建可信醫療數據空間?

因為想要訓練出具備全病程診療能力的垂類大模型,數據是關鍵前提。但問題是,必須要有全病程、全年齡段、全性別、全地域的海量數據才能在大模型裡形成知識。而現實是醫療數據開放率不足5%。



某三甲醫院信息科主任透露,其醫院每年產生的500TB診療數據中,真正能用於AI訓練的脫敏結構化數據不足3%。更嚴峻的是,占疾病圖譜80%價值的罕見病、慢性病數據,因其敏感性長期沉睡在各醫療機構的"數據孤島"中。

而像這樣的斷點無法解決,產業鏈就無法形成閉環。算力需求自然也就得不到滿足,顯然,這顯然已經遠遠超出了傳統意義上那些僅僅提供“卡和電”的算力基礎設施供應商所能獨立應對的范疇。

不過,如今市場已經有一批新型的智算服務商正悄然崛起。這些企業不再將自身定位局限於單純的硬件提供或算力租賃,他們還能更組建專業的算法團隊和行業專家團隊,深度參與到客戶的AI應用開發與優化過程中。

與此同時,面對各種資源錯配和算力利用率等問題,各地其實也在根據當地產業需求出台各種各樣的算力補貼政策,其中,“算力券”作為一種直接降低企業使用算力成本的補貼方式。只是對於當前階段的中國智算產業而言,單純的政策“急救藥”恐怕已難以從根本上扭轉局面。

如今,智算產業所需要的是“造血式”培育生態。
您的點贊是對我們的鼓勵     這條新聞還沒有人評論喔,等著您的高見呢
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0338 秒 and 5 DB Queries in 0.0027 秒