老黃又來掀桌了啦! 在今天凌晨的 2023 年全球超算大會( SC2023 )上,英偉達推出了全新GPU H200 。 作為前代 H100 的升級款,老黃直接不裝了,在官網(wǎng)上單方面將 H200 稱為 “ 當世最強 ” 。 但更秀的是,沒人會因此質(zhì)疑他們違反廣告法,因為在 AI 時代,對手們真只能眼巴巴地看著英偉達的車尾燈。 從英偉達官方透露的數(shù)據(jù)來看, H200 最強的就是在大模型推理表現(xiàn)上。 以 700 億參數(shù)的 LLama2 大模型為例, H200 推理速度幾乎比前代的 H100 快了一倍,而且能耗還降低了一半。 能取得這么強的成績,自然是 H200 的硬件給力。 從參數(shù)方面看, H200 的主要提升就是把上一代 “ G 皇 ”H100 的顯存,從 80GB 拉到了 141GB ,帶寬從 3.35TB/s 增加到了 4.8 TB/s 。 而這些進步則主要要歸功于HBM3e 內(nèi)存技術(shù)。 今年 8 月的時候, SK 海力士推出 HBM3e 之后,據(jù)宣稱單顆帶寬可以達到 1.15TB/s ,相當于在 1 秒鐘內(nèi)傳輸了 230 部 FHD 高清電影(每部容量 5G )。 在 SK 海力士官宣 HBM3e 之后不久,包括三星、美光在內(nèi)的內(nèi)存廠商們,都陸續(xù)跟進了這一技術(shù)。 這個 HBM3e ,其實就是之前大家都在用的 HBM3 的升級版。 說白了就是有更高的性能、更高的帶寬,好處就是芯片能用更快的速度傳輸數(shù)據(jù),同時還降低功耗。 非常適合眼下的AI 和大數(shù)據(jù)運用。 于是英偉達第一時間就找到 SK 海力士進行了合作。 所以我們能看到這才沒多久, H200 就已經(jīng)用上了這一新技術(shù)。 比起技術(shù)升級更方便的是, H200 和 H100 都是基于英偉達 Hopper 架構(gòu)打造的。 所以兩款芯片可以互相兼容,那些裝滿了 H100 的企業(yè)不需要調(diào)整,可以直接更換。 不過,乍一看好像是王炸,但實際上H200 可能只是 H100 的一個 “ 中期改款 ” 。 因為我們發(fā)現(xiàn), H100 和 H200 單論峰值算力的話,其實是一模一樣的。 真正提升的參數(shù)只有顯存、帶寬。 而在此前,大家常用來評判 AI 芯片性能的重要參數(shù):訓(xùn)練能力。 H200 相較 H100 的提升也并不明顯。 從英偉達給出的數(shù)據(jù)來看,在 GPT-3 175B 大模型的訓(xùn)練中, H200 只比 H100 強了 10% 。 在世超看來,這種操作大概率是有意為之。 之前各個大廠忙著打造自家的大模型,對 GPU 最大的需求毫無疑問就是訓(xùn)練,所以當時大家的需求是提升訓(xùn)練能力。 而如今,隨著 AI 大語言模型不斷落地應(yīng)用,訓(xùn)練模型在廠商眼中可能已經(jīng)是牛夫人了,大家反而全去卷推理速度。 所以這次 H200 很可能是故意忽略 “ 算力 ” 升級,轉(zhuǎn)而進行推理方面的發(fā)力。 不得不說,老黃的刀法依舊精準。 當然了,這也是英偉達工程師們給老黃擠牙膏的本事,誰讓人家顯卡真就遙遙領(lǐng)先呢。 哪怕只是做了個小提升, H200 還真就能當?shù)闷?nbsp;“ 當世最強 ” 的名號。 而且根據(jù)瑞杰金融集團估計, H100 芯片售價在 2 萬 5-4 萬美金之間,那加量后的 H200 只會比這高。 而如今像亞馬遜、谷歌、微軟和甲骨文等大廠的云部門,已經(jīng)付完錢排排站,就等著明年 H200 交貨了。 畢竟,哪家大模型隨便升個級不要幾千個 GPU ? 只能說這波老黃又又又賺麻了。 但問題就是,加價對于 AI 芯片永遠不是問題。 今年初創(chuàng)公司、大廠、政府機構(gòu)等等為了搶一張 H100 擠破腦袋的樣子還在上演,所以明年H200 的銷量根本不用愁。 “ 是人是狗都在買顯卡 ” ,去年說完這句話的馬斯克也不得不轉(zhuǎn)頭就加入 “ 搶卡大軍 ” 。 更夸張的是,英偉達方面還說了,推出 H200 不會影響 H100 的擴產(chǎn)計劃。 也就是明年英偉達還是打算賣 200 萬顆 H100 芯片,也能側(cè)面看出, AI 芯片是多么不愁賣。 但面對全球嗷嗷待哺的市場,英偉達其實也有點力不從心。。 像 OpenAI 作為打響 AI 革命第一槍的人,結(jié)果因為沒有足夠的 GPU 痛苦得不行。 比如因為算力不夠用,自家 GPT 們被各種吐槽 API 又卡又慢; 因為算力不夠用, GPT 更強的上下文能力始終沒法全員推廣; 因為算力不夠用, GPT 們沒法賣給客戶更多專有定制模型。。。 光連 OpenAI 創(chuàng)始人奧特曼,就已經(jīng)出來好幾次炮轟過算力短缺。 而為了解決這個問題, OpenAI 也想了不少辦法。 比如自研 AI 芯片、與英偉達等制造商展開更緊密合作、實現(xiàn)供應(yīng)商多元化等等。 上個月初就有消息說 OpenAI 已經(jīng)在找收購目標了。 更進一步的是特斯拉,他們就在 7 月推出了由定制 AI 芯片 D1 打造的 Dojo 超級計算機,用來訓(xùn)練自動駕駛系統(tǒng)。 當時摩根士丹利直接吹了一篇研報說:特斯拉這波下來,比用英偉達的 A100 足足省下了 65 億美元。 當然,這也不是說馬斯克的這個自研的 AI 芯片就比 A100 強了。 而只是因為自研芯片只需要干自家的活,更符合自己需要、也沒有算力浪費。 就好比英偉達的芯片是一鍋大雜燴,誰來了吃都能吃飽飽;而自研芯片雖然只是小碗菜,但它可以按照個人口味做,雖然做得少、但更合胃口。 其他大廠也沒閑著,比如微軟要自研 “ 雅典娜 ” 、谷歌在年初就在自研芯片上取得突破進展。。 但就像我們前面說的,這次 H200 其實只是一個 “ 中期改款 ” ,還不足以打消其他廠商們的小心思。 按照英偉達自己放出的消息,大的還是明年會來的 B100 ,從圖里看它至少是有指數(shù)級的提升。 所以世超覺得,大家伙忙活半天,在硬實力面前,黃老爺?shù)奈恢每峙逻是會越來越穩(wěn)。 你看像是即使強如 Meta 早在 2021 年就意識到,自己怎么干都比不上英偉達的GPU 性能,轉(zhuǎn)頭就從老黃那下了幾十億訂單( Meta 最近好像又有點自研的心思了 )。 還記得老黃剛宣布英偉達是 “ AI 時代的臺積電 ” 的時候,有不少人冷嘲熱諷。 結(jié)果現(xiàn)在才發(fā)現(xiàn),這句話居然是老黃的謙辭。 畢竟 2022 年臺積電 “ 只 ” 占了全球晶圓代工產(chǎn)能的 60% ,而英偉達如今已經(jīng)占據(jù)了可用于機器學(xué)習(xí)的圖形處理器市場 80% 以上的份額。 總感覺,等老黃的大招真來了,這些大廠們的芯片自研項目恐怕又得死一片吧。。。 本文來源:差評 |
原創(chuàng)欄目
IT百科
網(wǎng)友評論
聚超值•精選