首頁 > 科技要聞 > 科技> 正文

DeepSeek重創(chuàng)美國芯片產(chǎn)業(yè),英偉達(dá)一夜蒸發(fā)6000億!巨頭破防,美股歷史性崩盤

新智元 整合編輯:吳利虹 發(fā)布于:2025-01-28 12:06

DeepSeek引爆的全球大地震,還在繼續(xù)。

剛剛,美國科技股直接全線崩盤,大跳水幅度打破歷史紀(jì)錄!英偉達(dá)股價暴跌近17%,一夜市值減少近6000億美元,創(chuàng)下了單個公司史上最大市值損失紀(jì)錄。

周末,DeepSeek造成的恐慌情緒已經(jīng)醞釀了兩天,果然一到周一就爆發(fā)了出來:市場發(fā)生劇烈震蕩。

「DeepSeek以極低的價格建立了一個突破性的AI模型,而且沒有使用尖端芯片,這讓人們質(zhì)疑,AI行業(yè)數(shù)千億資本的巨額投入真的值得嗎?」這個疑問如今愈發(fā)成為共識,表現(xiàn)在股市上,就是跌穿底盤。

對此,微軟CEO納德拉點評道:「Jevons悖論再次顯現(xiàn)!隨著AI變得更高效、更便宜、更易獲取,其使用量將出現(xiàn)井噴式增長,成為我們難以滿足的『新型必需品』。」

美股科技股,一夜跌穿

現(xiàn)在,以科技股為主的納斯達(dá)克綜合指數(shù)下跌了3.1%,標(biāo)普500指數(shù)下跌了1.5%。微軟股價下跌了2.1%。美國標(biāo)普1500綜合指數(shù)上市公司的交易量,比平常高出1/3以上。

一切跡象都顯示出,DeepSeek讓投資者開始重新思考硅谷科技大廠股價的真實水分。

這張調(diào)侃中美歐AI現(xiàn)狀的梗圖,在社區(qū)被傳瘋了

英偉達(dá)跌幅破紀(jì)錄,老黃資產(chǎn)縮水210億美元

英偉達(dá)的收盤價118.58 美元,創(chuàng)下自2020年3月16日以來的最大單日跌幅。

要知道,就在此前一周,英偉達(dá)剛剛超越蘋果,成為全球市值最高的上市公司。在美國的AI數(shù)據(jù)中心芯片市場,英偉達(dá)的GPU一直處于主導(dǎo)地位。

為了訓(xùn)練和運行AI模型,谷歌、Meta 和亞馬遜等科技巨頭都在這些GPU上投入了數(shù)十億美元。

結(jié)果,DeepSeek據(jù)稱只用了性能受限的H800,用時兩個月,投入不到600萬美元就完成了開發(fā)。

所以,市場對算力需求還會這么大嗎?如今投資者普遍擔(dān)心:GPU的相關(guān)支出,可能已經(jīng)見頂。分析師極力勸阻大家,表示「這種觀點完全不符合實際情況」,因為AI技術(shù)的進步,會導(dǎo)致AI行業(yè)對算力的需求只增不減,因此應(yīng)該盡量多多買入英偉達(dá)股票。但投資者已經(jīng)用腳投票了。

過去兩年,英偉達(dá)股價漲勢驚人,在2023年飆升了239%,在2024年累計上漲171%。

如今,市場對任何可能的支出減少都異常敏感。另一家在AI浪潮中市值大幅攀升的芯片巨頭博通,周一股價也重挫了17%,市值蒸發(fā)2000億美元。

那些業(yè)務(wù)依賴英偉達(dá)GPU進行硬件銷售的數(shù)據(jù)中心公司,股價同樣遭遇大幅拋售。戴爾、惠普和超微的股價跌幅均超過5.8%。參與特朗普總統(tǒng)最新星際之門計劃的甲骨文更是暴跌14%。

對英偉達(dá)而言,這次的市值損失超過了去年9月創(chuàng)下的2790億美元跌幅記錄的兩倍多。當(dāng)時,它的跌幅曾創(chuàng)下歷史最大單日市值損失紀(jì)錄,超越了Meta在2022年創(chuàng)下的2320億美元跌幅。

在這之前,最大跌幅是蘋果公司在2020年的1820億美元?傊ミ_(dá)此次的市值縮水額度超過了可口可樂和雪佛龍兩家公司的市值總和,也超過了甲骨文或網(wǎng)飛的總市值。

根據(jù)福布斯實時億萬富豪榜顯示,英偉達(dá)CEO老黃的個人凈資產(chǎn)也遭受重創(chuàng),縮水約210億美元,在全球富豪榜上的排名下滑至第17位。

影響遠(yuǎn)超傳統(tǒng)科技股

而且,這輪拋售的影響遠(yuǎn)遠(yuǎn)不止傳統(tǒng)科技股。為AI基礎(chǔ)設(shè)施提供電氣硬件的西門子,股價也暴跌了20%。大力投資數(shù)據(jù)中心服務(wù)的施耐德電氣,股價也下跌了9.5%。

強大的恐慌情緒下,避險資產(chǎn)成為安全的新選擇。強生、可口可樂、通用磨坊和好時等日用消費品的股價,倒是一路穩(wěn)健上漲。

為AI革命提供「鏟子」的公司,股價盡皆大跌,不由讓人想起互聯(lián)網(wǎng)泡沫破滅時,IT硬件巨頭思科的股價崩盤。

而在AI競爭中投入較少的蘋果,反而「因禍得!,股價上漲了3.3%。

Karpathy:算力決定了智能的上限

去年12月,AI大牛Karpathy就在DeepSeek-V3發(fā)布時,針對LLM的算力需求進行了分析。

舉個例子,Llama 3 405B消耗了3080萬GPU小時,而性能更強的DeepSeek-V3,卻只用了280萬GPU小時(算力減少了約11倍)。

那么,這是不是意味著開發(fā)前沿LLM就不需要大規(guī)模GPU集群了呢?并非如此。

關(guān)鍵在于要充分利用手頭的資源,而這個案例很好地證明了在數(shù)據(jù)處理和算法優(yōu)化方面還有很大的提升空間。對于最新發(fā)布的R1,這一觀點也同樣適用。

在AI發(fā)展史上,還沒有哪個算法像深度學(xué)習(xí)這樣,對算力如此饑渴和貪婪。

雖然你可能并不總是充分利用這些算力,但從長遠(yuǎn)來看,算力是決定可實現(xiàn)智能上限的關(guān)鍵因素。這不僅體現(xiàn)在最終的訓(xùn)練過程中,更體現(xiàn)在推動算法創(chuàng)新的整個研發(fā)生態(tài)系統(tǒng)中。

傳統(tǒng)上,我們常把數(shù)據(jù)視為獨立于算力的范疇,但實際上數(shù)據(jù)在很大程度上是算力的衍生物——只要有足夠的算力,你就能生成海量數(shù)據(jù)。這,就是所謂的合成數(shù)據(jù)生成。但更深層的是,「合成數(shù)據(jù)生成」與「強化學(xué)習(xí)」之間存在著本質(zhì)的聯(lián)系(可以說是等價的)。

在強化學(xué)習(xí)的試錯過程中,「試驗」階段就是模型在生成(合成)數(shù)據(jù),然后根據(jù)「錯誤」(或獎勵)來學(xué)習(xí)。反過來說,當(dāng)你生成合成數(shù)據(jù)并對其進行任何形式的排序或篩選時,你的篩選器本質(zhì)上就等同于一個0-1優(yōu)勢函數(shù)——這其實就是一個簡單的強化學(xué)習(xí)過程。

無論是深度學(xué)習(xí),還是人類幼崽,都存在兩種主要的學(xué)習(xí)模式:(1)模仿學(xué)習(xí)(觀察并重復(fù),也就是預(yù)訓(xùn)練和監(jiān)督微調(diào)),(2)試錯學(xué)習(xí)(強化學(xué)習(xí))。比如AlphaGo,就是先(1)通過模仿專業(yè)棋手來學(xué)習(xí),再(2)通過強化學(xué)習(xí)來提升獲勝能力?梢哉f,幾乎所有深度學(xué)習(xí)中令人驚嘆的突破,以及所有「魔法般」的效果都來自于方式2。正是方式2讓打磚塊游戲中的擋板學(xué)會了在磚塊后方擊球,讓AlphaGo戰(zhàn)勝了李世石,也讓DeepSeek(或其他類似模型)領(lǐng)悟到重新評估假設(shè)、回溯、嘗試新方法等策略的重要性。

這就是你在模型的思維鏈中看到的解決策略,這就是它如何來回思考的方式。這些思維模式是「涌現(xiàn)」出來的,的確令人難以置信,也是一個重大突破(至少在公開記錄的成果中是如此)。

模型不可能通過方式1(模仿)來學(xué)習(xí)這些,因為模型的認(rèn)知方式與人類標(biāo)注者完全不同。人類根本不知道該如何正確標(biāo)注這些解決問題的策略,也不清楚它們應(yīng)該呈現(xiàn)什么樣子。

這些策略只能在強化學(xué)習(xí)過程中被發(fā)現(xiàn),作為實踐證明有效的、能夠達(dá)成目標(biāo)的方法。最后補充一點:強化學(xué)習(xí)確實強大,但RLHF卻不是。因為RLHF本質(zhì)上不是真正的強化學(xué)習(xí)。(Karpathy在之前的推文中已經(jīng)詳細(xì)吐槽過了)

對于Karpathy的這波分析,英偉達(dá)高級研究科學(xué)家Jim Fan深表贊同:「機器終將訓(xùn)練機器。永遠(yuǎn)不要懷疑scaling的力量,永遠(yuǎn)不要!

本文來源:新智元

新智元

網(wǎng)友評論

聚超值•精選

推薦 手機 筆記本 影像 硬件 家居 商用 企業(yè) 出行 未來
二維碼 回到頂部