明敏 發(fā)自 凹非寺
11分鐘內訓練一遍GPT-3,8秒訓完BERT。
這就是英偉達給AI圈的一點“小小震撼”。
在最新MLPerf訓練基準測試中,英偉達H100集群,橫掃八項測試,全部創(chuàng)下新紀錄,并且在大語言模型任務中表現(xiàn)尤為突出!
在大語言模型任務中,H100集群的加速性能逼近線性增長。
即隨著集群處理器數(shù)量增加,加速效果也幾乎同比增加。
這意味著在集群內GPU之間的通信效率非常高。
除此之外,H100還完成了推薦算法、CV、醫(yī)學圖像識別以及語音識別等任務,是唯一一個參加8項測試的集群。
而在算力就是生產(chǎn)力的時代下,這波成績意味著什么,懂得都懂。
據(jù)悉,本次測試系統(tǒng)由英偉達和Inflection AI聯(lián)合開發(fā),在云廠商CoreWeave上托管。
這次MLPerf Training v3.0中增加了兩項新任務:
大語言模型(基于GPT-3)
推薦算法
這意味著測試任務包含了更大的數(shù)據(jù)集和更先進的模型。
如上刷新各項記錄的,是由3584塊H100組成的超大集群。
它的具體成績如下:
這是本輪測試中,英偉達拿出的最大集群。
實際上他們還提交了一個包含768塊H100的集群進行測試,并分別在云上和本地部署。
結果顯示二者性能幾乎完全相同。
更進一步還論證了隨著集群中顯卡數(shù)量的增加,其性能提升可以接近線性增長。
(NVIDIA Pre-Eos為本地部署,NVIDIA+CoreWeave為云上部署)
除此之外,這輪測試中英偉達還刷新了單節(jié)點加速記錄。
和6個月前MLPef Training v2.1的數(shù)據(jù)比較,單個DGX H100系統(tǒng)(8塊H100組成)在各項任務中平均提速17%。
和A100 Tensor Core GPU相比,最高能提速3.1倍(BERT任務)。
這些加速效果的實現(xiàn),主要得益于兩個方面。
一方面是H100本身就足夠強悍。
H100基于最新Hopper架構,采用臺積電4nm工藝,集成800億個晶體管,較A100增加了260億個。
內核數(shù)量達到前所未有的16896個,是A100的2.5倍。
由于面向AI計算,H100中專門搭載了Transformer Engine,讓大模型訓練速度可直接×6。
另一方面則是依賴集群內的加速網(wǎng)絡。
這里使用的是英偉達Quantum-2 InfiniBand網(wǎng)絡,是該網(wǎng)絡架構的第七代。
官網(wǎng)介紹,加速網(wǎng)絡能夠提供軟件定義網(wǎng)絡、網(wǎng)絡內計算、性能隔離、優(yōu)越加速引擎、RDMA和最快達400Gb/s的安全加速。
據(jù)悉,共有90個系統(tǒng)參與最新一輪測試,其中82個使用了英偉達的GPU,英特爾方面有7個系統(tǒng)參與。
英特爾的加速系統(tǒng)使用了64-96 Intel Xeon Platinum 8380處理器和256-389 Intel Habana Gaudi2加速器。
其高配系統(tǒng)完成LLM的訓練時間為311分鐘。
基于這次報告的測試結果,有分析師表示他感受到的最大震撼不是H100本身的性能,而是在云上訓練AI實現(xiàn)的卓越效果。
那么這次和英偉達合作的云廠商CoreWeave是誰?聯(lián)合開發(fā)系統(tǒng)Inflection AI又來者何人?
首先來看CoreWeave。
它成立于2017年,是一家大型云廠商,號稱提供業(yè)內最快、最靈活的大規(guī)模GPU計算資源,提供渲染、機器學習等云上方案,速度比大型公共云快35倍,成本低80%。
而這家云廠商很受科技巨頭青睞,英偉達在此之前沒少cue過它。
5月,CoreWeave拿下2億美元融資,主要來自對沖基金Magnetar Capital,B輪總融資額達到4.21億美元。
6月,有消息稱微軟與CoreWeave簽署AI算力協(xié)議,用于計算基礎設施,未來數(shù)年內的投資金額可能數(shù)十億美元。
英偉達也向CoreWeave投資了1億美元,4月時它的估值為20億美元。
另一家AI初創(chuàng)公司Inflection AI由DeepMind創(chuàng)始成員穆斯塔法·蘇萊曼(Mustafa Suleyman)等人創(chuàng)立。
這家公司成立于22年3月,已拿下2.25億美元融資,估值超12億美元。
公司已經(jīng)開發(fā)出了一個大語言模型Pi,正是在H100集群上訓練出來的。
據(jù)了解,Pi的定位是幫助人類更好和計算機交互,它能通過聊天內容來逐漸了解用戶,然后提供更加個性化的回答,類似于個人智能管家的感覺。
Inflection AI的最新Blog里表示,基于目前的合作,他們計劃在未來幾個月內進一步擴大底層計算基礎設施的規(guī)模。
參考鏈接:
[1]https://blogs.nvidia.com/blog/2023/06/27/generative-ai-debut-mlperf/?continueFlag=685ee2dc8db6455efed731baa85e2741
[2]https://developer.nvidia.com/blog/breaking-mlperf-training-records-with-nvidia-h100-gpus/
[3]https://www.forbes.com/sites/stevemcdowell/2023/06/27/nvidia-h100-dominates-new-mlperf-v30-benchmark-results/?sh=62b226c35e99
— 完 —
聯(lián)系客服