首頁 > 科技要聞 > 科技> 正文

硅谷觀察|盛贊完DeepSeek,黃仁勛就發(fā)新模型要搶客戶

新浪科技 整合編輯:段可心 發(fā)布于:2025-03-19 10:33

從揭曉新AI處理器致敬女天文學家,到發(fā)布首款開源機器人模型,再到盛贊DeepSeek并強調不會沖擊自家芯片需求,最后又發(fā)布一款新推理模型號稱可以秒殺DeepSeek;這構成了今天黃仁勛在GTC大會主題演講的幾個精彩時刻。

還是那身黑色皮衣,黃仁勛走上GTC舞臺,宣布自己依然不會使用提詞器,甚至筆記都沒有準備。激情即興是他的演講標志風格,拿著幻燈片遙控器就可以一路說下去。

今天在加利福尼亞州圣何塞舉辦的GTC 2025大會上,英偉達CEO黃仁勛向全球展示了他們在人工智能(AI)領域的最新技術突破。從宣布下一代GPU架構到將AI帶入商用,宣布快餐巨頭Taco Bell的合作,英偉達不僅鞏固了其在AI計算領域的領導地位,還將其技術觸角延伸至零售服務業(yè)。

這是英偉達在疫情之后第二次在圣何塞舉辦GTC大會。本次大會吸引了約2.5萬名與會者,包括微軟、谷歌、Waymo和福特等行業(yè)巨頭,共同探討AI硬件的未來應用。

早上八點SAP體育場外就排起了隊,只為了盡早入場現(xiàn)場聆聽黃仁勛的主題演講,因為體育館場內座位有限,排在后面的只能在外面看大屏幕。黃仁勛開玩笑稱,自己需要更大的會場。

為什么GTC大會如此吸引關注?作為AI時代的引擎提供商,英偉達在短短兩年就成為了半導體巨無霸,甚至一度市值超過蘋果,成為了全球市值最高企業(yè)。不夸張地說,整個科技行業(yè)都在密切關注英偉達的每一次發(fā)布會,關注著新一代處理器,因為這直接關系到未來幾年的AI算力。

那么今天的GTC 2025,黃仁勛宣布了哪些重磅產(chǎn)品與消息?

新處理器致敬女天文學家

如外界預期,黃仁勛在主題演講中發(fā)布了全新AI處理器“Vera Rubin”,以美國女天文學家維拉·魯賓(1928-2016)命名。這款芯片整合了英偉達首款定制CPU “Vera”和全新設計的GPU,標志著英偉達在處理器設計上的重大突破。這款處理器預計于2026年下半年出貨。

Vera CPU基于英偉達自研的Olympus核心架構,此前英偉達多依賴Arm的現(xiàn)成設計(如Cortex系列)。定制化設計讓Vera在性能上比Grace Blackwell芯片中的CPU快約兩倍,具體表現(xiàn)為更高的每時鐘周期指令數(shù)(IPC)和更低的功耗。

英偉達表示,這款全新處理器將采用臺積電的3nm工藝制造,晶體管密度較5nm工藝提升約2.5倍,達到每平方毫米約1.5億個晶體管。這種工藝進步顯著提升了計算效率,尤其適合AI推理任務的高并行需求。

Rubin GPU技術上由兩個獨立芯片組成,通過英偉達的NV-HBI(High Bandwidth Interface)技術以超高帶寬互聯(lián),工作時表現(xiàn)為單一邏輯單元。其核心規(guī)格包括支持高達288GB的HBM3e內存(高帶寬內存第三代增強版),帶寬達每秒5TB,比Blackwell的HBM3內存(141GB,帶寬4TB/s)提升顯著。

在推理任務中,Rubin可實現(xiàn)50 petaflops的性能(每秒5´10¹⁶次浮點運算),是當前Blackwell芯片(20 petaflops)的兩倍多。這一提升得益于其新增的Tensor Core單元,專為矩陣運算優(yōu)化,加速深度學習模型的推理和訓練。

Rubin的目標客戶包括亞馬遜和微軟等云服務商和AI研究機構。其高內存容量和計算能力特別適合運行大型語言模型(如Llama 3或Grok),這些模型通常需要數(shù)百GB內存來存儲權重和中間結果。英偉達還展示了Rubin支持的新軟件工具包Dynamo,可動態(tài)優(yōu)化多GPU協(xié)同工作,進一步提升性能。

除了Rubin之后,黃仁勛還宣布英偉達計劃在2027年下半年推出”Rubin Ultra”,將四個GPU芯片集成于單一封裝,性能高達100 petaflops。

Rubin Ultra采用名為NVLink 5.0的下一代互聯(lián)技術,芯片間帶寬預計達每秒10TB,比NVLink 4.0(600GB/s)提升一個數(shù)量級。這種設計允許將多個Rubin Ultra組合成超級計算集群,如Vera Rubin NVL144機架(含144個GPU),為超大規(guī)模AI訓練提供支持。

Rubin Ultra的每個GPU核心預計包含超過200億個晶體管,采用2nm工藝制造,功耗控制在約800W以內(相比Blackwell單芯片700W)。其內存支持升級至HBM4,提供高達576GB容量,帶寬預計達每秒8TB/s。這種配置使其能處理復雜的生成式AI任務,如實時視頻生成或多模態(tài)模型推理。

雖然Rubin兩款處理器堪稱怪獸級別,但市場需要等到明后年才能部署。英偉達計劃今年下半年推出當前Blackwell系列的增強版產(chǎn)品——Blackwell Ultra。

Blackwell Ultra提供多種配置,包括:

- 單芯片版本(B300):20 petaflops性能,288GB HBM3e內存;

- 雙芯片版本(GB300):搭配Arm CPU,功耗約1kW;

- 機架版本:含72個Blackwell芯片,適用于數(shù)據(jù)中心。

Blackwell Ultra的亮點是內存升級(從192GB增至288GB)和更高的token生成速率。英偉達稱,其每秒可生成更多AI輸出(如文本或圖像),適合時間敏感的應用。云服務商可利用其提供高級AI服務,潛在收入可能是2023年Hopper芯片的50倍。

此外,黃仁勛還透露,英偉達計劃在2028年將推出以物理學家理查德·費曼(Richard Feynman)命名的Feynman GPU。Feynman將延續(xù)Vera CPU設計,但架構細節(jié)未公開。預計其將采用1.5nm工藝,性能可能突破200 petaflops,目標是支持下一代AI代理模型,如具備推理能力的自主系統(tǒng)。

黃仁勛強調,英偉達已從兩年一次的架構更新轉向每年更新發(fā)布的節(jié)奏,以應對AI需求的“超加速”增長。自2022年底ChatGPT發(fā)布以來,英偉達銷售額激增六倍,其GPU占據(jù)AI訓練市場超過八成的市場份額。

上月底發(fā)布的第四季度財報顯示,英偉達當季收入達到393億美元,環(huán)比增長12%,同比增長78%。全年收入為1305億美元,同比增長114%。其中數(shù)據(jù)中心收入為356億美元,占總收入的91%,較上一季度增長16%,同比增長93%。這一增長不僅來自Hopper GPU的持續(xù)銷售,還包括Blackwell芯片的初步貢獻。

首款開源人形機器人模型

黃仁勛還在主題演講中,正式發(fā)布了NVIDIA Isaac GR00T N1,宣布“機器人的時代已經(jīng)到來”,這是全球首款開源的人形機器人基礎模型。這是英偉達“Project GR00T”項目的最新成果,基于其在2024年GTC大會上首次推出的機器人研究項目。

N1代表“第一代”,是英偉達專為加速人形機器人開發(fā)設計的通用AI模型。與傳統(tǒng)機器人依賴特定任務編程不同,GROOT N1是一個“通才模型”(generalist model),能夠處理多種任務并適應不同的人形機器人形態(tài)。

該模型使用真實數(shù)據(jù)和合成數(shù)據(jù)(synthetic data)混合訓練,其中合成數(shù)據(jù)由英偉達的Omniverse平臺生成。這種方法大幅降低了現(xiàn)實世界數(shù)據(jù)采集的成本和時間。GROOT N1以開源形式發(fā)布,開發(fā)者可通過Hugging Face和GitHub下載其訓練數(shù)據(jù)和任務評估場景。這種開放性旨在推動全球機器人社區(qū)的協(xié)作創(chuàng)新。

黃仁勛在主題演講中現(xiàn)場演示展示了GROOT N1的商用實力:

1X NEO Gamma:1X公司的NEO Gamma人形機器人使用GROOT N1的后期訓練策略(post-trained policy),展示了自主整理家居的能力。1X CEO Bernt B

ørnich稱:“GROOT N1在機器人推理和技能上的突破,讓我們僅用少量數(shù)據(jù)就實現(xiàn)了全面部署。”

迪士尼BDX機器人:兩臺受《星球大戰(zhàn)》啟發(fā)的BDX機器人(昵稱“Green”和“Orange”)在臺上跟隨黃仁勛移動,并對他的指令(如“現(xiàn)在不是吃飯時間”)做出點頭回應,展現(xiàn)了自然語言理解和動作協(xié)調能力。

黃仁勛在演講中指出,GROOT N1的發(fā)布不僅是技術突破,也是對未來機器人產(chǎn)業(yè)的戰(zhàn)略布局。他預測,人形機器人市場在未來十年可能達到380億美元,尤其在工業(yè)、制造和服務領域。他表示:“GROOT N1和新的數(shù)據(jù)生成框架將開啟AI時代的新前沿!

AI點餐帶入連鎖餐廳

在此次大會上,黃仁勛還宣布了英偉達與全球餐飲巨頭百勝餐飲(Yum! Brands)的戰(zhàn)略合作,百勝旗下的墨西哥風味餐廳Taco Bell將率先引入AI優(yōu)化得來速服務(Drive Thru,不下車語音點餐)。

目前,數(shù)百家Taco Bell餐廳已使用英偉達提供的語音AI系統(tǒng)接受訂單。百勝餐飲計劃從2025年第二季度起,將該技術推廣至約500家餐廳,包括必勝客、肯德基和Habit Burger and Grill。

英偉達為Taco Bell定制了基于Transformer架構的語音識別模型,運行于邊緣設備(如Nvidia Jetson平臺)。該系統(tǒng)支持實時語音轉文本(ASR)和自然語言處理(NLP),延遲低至200毫秒。

百勝餐飲高管介紹了英偉達技術如何給自己服務帶來提升:AI將升級為視覺+語音系統(tǒng),利用攝像頭和英偉達GPU分析排隊車輛數(shù)量。例如,當檢測到五輛車排隊時,AI可建議快速出餐的選項(如Taco而非復雜的Burrito),縮短平均等待時間(目標從180秒降至120秒)。英偉達的推理加速技術(如TensorRT)將支持這些實時決策。

英偉達并不是最先嘗試將AI帶入快餐行業(yè)的巨頭。早在2021年,IBM就和麥當勞合作,在100多家餐廳測試AI語音點餐,但使用體驗還存在諸多問題,經(jīng)常會有聽錯點餐的情況,準確率只有80%左右,雙方已經(jīng)在2024年結束了測試合作。

與百勝餐飲合作是英偉達將AI帶入快餐行業(yè)服務的第一步,他們顯然也吸取了IBM的測試經(jīng)驗。英偉達零售業(yè)務發(fā)展總監(jiān)安德魯·孫指出,AI需兼顧速度與質量,避免給用戶帶來偏差,成為社交網(wǎng)絡笑柄。百勝餐飲高管強調,員工和顧客的信任至關重要:“通用大模型不夠好,我們需要定制化解決方案!崩纾琓aco Bell的AI需理解品牌文化,而非機械執(zhí)行標準流程。

對DeepSeek贊不絕口

值得一提的是,黃仁勛在主題演講中,對來自中國的AI公司DeepSeek贊不絕口,給予了極高的評價,多次強調DeepSeek不會給英偉達帶來沖擊。黃仁勛在演講中稱贊DeepSeek的R1模型為“卓越的創(chuàng)新”(excellent innovation)和“世界級的開源推理模型”(world-class open-source reasoning model)。

今年1月DeepSeek發(fā)布R1模型之后,以極低的訓練成本提供了媲美甚至優(yōu)于OpenAI的性能,震撼了整個美國AI行業(yè),甚至一度導致芯片行業(yè)股價大跌。因為如果DeepSeek得以普及,AI行業(yè)就不一定需要瘋狂軍備競賽囤積英偉達的AI處理器了。

黃仁勛特別反駁了市場早前的恐慌,即DeepSeek的高效模型會降低對英偉達芯片的需求。黃仁勛提到,DeepSeek R1發(fā)布后(2025年1月),市場曾誤認為AI硬件需求會減少,導致英偉達市值一度暴跌6000億美元。他對此解釋稱,“市場認為’AI完成了’,我們不再需要更多計算資源。這種想法完全錯誤,恰恰相反!

他強調,DeepSeek R1代表的“推理型AI”(reasoning AI)同樣需要對很高的計算能力。他解釋說,與傳統(tǒng)觀念認為AI僅需預訓練后即可直接推理不同,推理型模型需要大量后期訓練和實時算力支持。他表示:“推理是一個相當耗費計算資源的過程。像DeepSeek這樣的模型可能需要比傳統(tǒng)模型多100倍的計算能力,未來的推理模型需求還會更高。”

他指出,DeepSeek的成功表明高效模型與強大算力的結合是未來趨勢,而英偉達的芯片(如Blackwell Ultra)正是為此定制的。他還幽默地稱:“DeepSeek點燃了全球熱情,這對我們是好消息!庇ミ_已與包括Meta、谷歌和亞馬遜在內的客戶加大投資,確保其芯片滿足日益增長的AI基礎設施需求。

他指出,R1的發(fā)布不僅沒有削弱英偉達的市場地位,反而推動了全球對AI的熱情!皫缀趺總AI開發(fā)者都在使用R1,這表明其影響力正在擴大AI的采用范圍!

黃仁勛因此透露,英偉達已經(jīng)將DeepSeek R1作為新品基準測試的一部分。例如,他提到Blackwell Ultra芯片在設計時優(yōu)化了推理任務,能更高效地運行R1這類模型。他具體指出:“Blackwell Ultra的Tensor Core經(jīng)過調整,支持高密度矩陣運算,每秒token生成率顯著提升,非常適合推理型AI!

面對DeepSeek引發(fā)的競爭壓力,黃仁勛淡化了對英偉達的威脅。他在演講中說:“DeepSeek展示了模型可以更高效,但這并不意味著硬件需求減少。相反,它讓所有人意識到,高效模型需要更強的計算支持!

新推理模型秒殺DeepSeek

盛贊完DeepSeek,黃仁勛又宣布推出了一款基于Llama的新推理模型——Nvidia Llama Nemotron Reasoning。他將這一模型描述為“一個任何人都能運行的令人難以置信的新模型”,并強調其在企業(yè)AI應用中的潛力。這一發(fā)布標志著英偉達在AI模型開發(fā)領域的進一步擴展,從硬件供應商向軟件與模型生態(tài)的全面參與者轉型。

黃仁勛特別強調了Nvidia Llama Nemotron Reasoning在準確性和速度上的卓越表現(xiàn),聲稱其“大幅超越”(beats substantially)中國AI公司DeepSeek的R1模型。

Nvidia Llama Nemotron Reasoning是英偉達Nemotron模型家族的新成員。Nemotron系列最初設計用于增強AI代理的能力,盡管“AI代理”這一概念在行業(yè)中仍未完全明確定義。通常,AI代理被理解為能夠自主執(zhí)行任務、推理并與環(huán)境交互的智能系統(tǒng),例如客服機器人或自動化助手。黃仁勛在演講中并未詳細解釋“AI代理”的具體含義,但暗示Nemotron Reasoning將為企業(yè)提供更強大的推理能力,支持復雜決策和任務處理。

該模型基于Meta開源的Llama架構,但經(jīng)過英偉達的深度定制和優(yōu)化。Llama作為一個高效、開源的大語言模型基礎,近年來被廣泛用于學術和商業(yè)領域,而英偉達通過其算力優(yōu)勢和軟件生態(tài)(如TensorRT和Dynamo)對Llama進行了性能提升,使其適配企業(yè)級應用。

Llama Nemotron家族模型將與DeepSeek競爭,為高級代理提供企業(yè)就緒的AI推理模型。顧名思義,Llama Nemotron基于Meta的開源Llama模型。英偉達通過算法修剪了模型,以優(yōu)化計算需求,同時保持準確性。

英偉達還應用了復雜的后期訓練技術,使用合成數(shù)據(jù)進行訓練。訓練過程涉及36萬個H100推理小時和4.5萬個小時的人工標注,以增強推理能力。據(jù)英偉達稱,所有這些訓練造就了在數(shù)學、工具調用、指令遵循和對話任務等關鍵基準測試中具有卓越推理能力的模型。

本文來源:新浪科技

網(wǎng)友評論

聚超值•精選

推薦 手機 筆記本 影像 硬件 家居 商用 企業(yè) 出行 未來
二維碼 回到頂部