美國軟件巨頭甲骨文宣布,2023年將投資數(shù)十億美元,購買英偉達(dá)GPU(圖形處理芯片),為了應(yīng)對今后對人工智能云計算服務(wù)業(yè)務(wù)的需要。這還不包括甲骨文另外大量采購Ampere Computing和AMD的CPU(中央處理器)。
我們知道,一臺人工智能服務(wù)器往往裝配2個CPU,4-8個GPU,16-32個內(nèi)存條,2-8個大容量硬盤等等。之所以各大廠都在爭購GPU,主要是因?yàn)镚PU已經(jīng)成為AI服務(wù)器的核心部件,大模型的學(xué)習(xí)和訓(xùn)練離不開GPU。
英偉達(dá)的AI芯片分為三類:H100、A100、A800。H100的傳輸速度是A100的12倍,A100的速度是A800的1.5倍。誰擁有了GPU的速度,誰就贏得了大模型訓(xùn)練的時間,誰就可能處在競爭的優(yōu)勢地位,誰就可能掙更多的錢。
受到美國商務(wù)部BIS的限定,英偉達(dá)H100和A100不能向中國出售,英偉達(dá)專門為中國市場開發(fā)的A800,是降速了的GPU,與H100差距甚遠(yuǎn)。
浪潮最新裝配8顆A800人工智能服務(wù)器
即便如此,裝配8顆A800的浪潮AI服務(wù)器,網(wǎng)上售價也需要150萬元人民幣。如果把甲骨文5萬顆H100折算成AI服務(wù)器的配置,那么甲骨文可擁有5萬臺AI服務(wù)器。與這個量級比較,國內(nèi)所有的大廠加在一起,估計也達(dá)不到這樣的算力。
公司 | 計劃購買量(萬顆) | 英偉達(dá)GPU | 備注 |
甲骨文 | 5 | H100 | |
Tesla | 1 | H100 | |
2.6 | H100 | ||
亞馬遜 | 2 | H100 | |
Meta | 自研 | ||
微軟 | 與AMD合作 |
甲骨文大量采購英偉達(dá)GPU,僅僅是美國各大互聯(lián)網(wǎng)巨頭對人工智能業(yè)務(wù)預(yù)期的一個典型代表。
谷歌已經(jīng)計劃向英偉達(dá)采購2.6萬顆H100,亞馬遜2萬顆H100,特斯拉1萬顆H100(用于自己的無人駕駛汽車的數(shù)據(jù)計算上)。
之前宣布與馬斯克約架的扎克伯格的Meta,宣布自己組建研發(fā)團(tuán)隊(duì),開發(fā)AI芯片。
微軟一方面購買英偉達(dá)GPU,另一方面也不甘心GPU市場被英偉達(dá)獨(dú)占,其宣布與CPU巨頭之一的AMD合作,聯(lián)合開發(fā)AI芯片GPU。
巨頭們采購的主要是英偉達(dá)GPU H100,因?yàn)樵贖100面前,A800相當(dāng)于牛車,而H100則是法拉利。
今后的格局是,美國大廠清一色使用H100,中國廠商最多使用A800,這還要看美國商務(wù)部BIS的臉色,會不會今后A800也不準(zhǔn)賣給中國了?如果這樣,對于服務(wù)器巨頭的浪潮信息來說,今后的業(yè)績預(yù)測就難上加難了。
由此可見,中美兩國AI服務(wù)器的巨大差距,決定了今后兩國在人工智能領(lǐng)域的差距會越拉越大。