GPU最初用在PC和移動(dòng)端上運(yùn)行繪圖運(yùn)算工作的微處理器,與CPU集成以集成顯卡(核顯)的形態(tài)發(fā)揮功能。NVIDIA于2007年率先推出獨(dú)立GPU(獨(dú)顯),使其作為“協(xié)處理器”在PC和服務(wù)器端負(fù)責(zé)加速計(jì)算,承接CPU計(jì)算密集部分的工作負(fù)載,同時(shí)由CPU繼續(xù)運(yùn)行其余程序代碼。作為獨(dú)顯的GPU由GPU核心芯片、顯存和接口電路構(gòu)成。
獨(dú)GPU與CPU之間通過PCIe總線連接,因而PCIe總線標(biāo)準(zhǔn)直接影響到通信帶寬;而針對(duì)GPU之間的互連,Nvidia推出NVLink技術(shù)替代傳統(tǒng)PCIe總線的方式,根據(jù)Nvidia官網(wǎng)數(shù)據(jù),GPU性能提升5倍。
目前由于AI性能挖掘仍有空間,已經(jīng)部署的服務(wù)器中GPU算力尚有冗余,預(yù)計(jì)PCIe由3.0升級(jí)至4.0和5.0短期內(nèi)對(duì)GPU影響不大。但主流參與者仍在工藝路徑持續(xù)推進(jìn)產(chǎn)品升級(jí)。根據(jù)AIBResearch數(shù)據(jù),Nvidia占據(jù)獨(dú)顯市場(chǎng)近80%的份額,目前NVIDIA Ampere A100產(chǎn)品7nm已經(jīng)投入生產(chǎn)。
NVIDIA、AMD和Intel在GPU市場(chǎng)三分天下。根據(jù)Jon Peddie Research數(shù)據(jù),Intel、AMD和Nvidia分別占據(jù)63%、19%和18%的市場(chǎng)份額。Intel和ADM在PC端GPU市場(chǎng)占據(jù)強(qiáng)勢(shì)地位,主要原因是PC端集成GPU(核顯),而Intel和AMD在PC端x86 CPU市場(chǎng)分別占據(jù)84%和16%的份額。
在獨(dú)立GPU(獨(dú)顯)市場(chǎng),Nvida是行業(yè)的奠基者和龍頭,占據(jù)近70%份額。AIB 數(shù)據(jù)顯示,2019年Q4,Nvidia和AMD在獨(dú)立GPU市場(chǎng)份額分別為81%和19%。針對(duì)HPC和AI場(chǎng)景,Nvidia推出的產(chǎn)品主要是Tesla系列,包括V100、P100、K40/K80、M40/M60等多個(gè)型號(hào),K系列更適合高精度計(jì)算,M系列更適合深度學(xué)習(xí)。
2019年3月,Nvidia宣布以49億美元收購(gòu)Mellanox,預(yù)計(jì)2020年4月底該項(xiàng)交易最終完成,成為Nvidia歷史上最大的一筆收購(gòu)。Mellanox是服務(wù)器和存儲(chǔ)端到端連接解決方案的供應(yīng)商,產(chǎn)品涉及HPC、云計(jì)算、數(shù)據(jù)中心、企業(yè)計(jì)算及存儲(chǔ)市場(chǎng),包括Smart NIC,網(wǎng)絡(luò)交換機(jī)芯片和高速數(shù)據(jù)互聯(lián)等。
AI芯片在智能攝像頭、無人駕駛等領(lǐng)域應(yīng)用廣泛。數(shù)據(jù)、算力和算法是AI三大要素,CPU配合加速芯片模式成為典型的AI部署方案,CPU提供算力,加速芯片提升算力并助推算法的產(chǎn)生。常見的AI加速芯片包括GPU、FPGA(Field Programmable Gate Array)和ASIC(Application Specific Integrated Circuit)三種類型。
CPU適合邏輯控制和串行計(jì)算等通用計(jì)算,計(jì)算能力沒有GPU強(qiáng),主要由專為順序串行處理而優(yōu)化的幾個(gè)核心組成;
GPU用于大量重復(fù)計(jì)算,由數(shù)以千計(jì)的更小、更高效的核心組成大規(guī)模并行計(jì)算架構(gòu),配備GPU的服務(wù)器可取代數(shù)百臺(tái)通用CPU服務(wù)器來處理HPC和AI業(yè)務(wù)(根據(jù)Nvida)。
FPGA是一種半定制芯片,靈活性強(qiáng)集成度高,但運(yùn)算量小,量產(chǎn)成本高,適用于算法更新頻繁或市場(chǎng)規(guī)模小的專用領(lǐng)域;
ASIC專用性強(qiáng),市場(chǎng)需求量大的專用領(lǐng)域,但開發(fā)周期較長(zhǎng)且難度極高。谷歌自主設(shè)計(jì)了一款基于ASIC的TPU(Tensor Processing Unit)專門用于機(jī)器學(xué)習(xí)工作負(fù)載。
訓(xùn)練和推斷是云端AI兩大運(yùn)行過程,訓(xùn)練產(chǎn)生算法,推斷實(shí)現(xiàn)算法應(yīng)用。訓(xùn)練階段需要大量數(shù)據(jù)運(yùn)算,GPU預(yù)計(jì)占64%左右市場(chǎng)份額,F(xiàn)PGA和ASIC分別為22%和14%。
推理階段無需大量數(shù)據(jù)運(yùn)算,GPU將占據(jù)42%左右市場(chǎng),F(xiàn)PGA和ASIC分別為34%和24%。AI芯片運(yùn)營(yíng)場(chǎng)景包括云端(服務(wù)器)、邊緣端和終端三類,不同應(yīng)用場(chǎng)景對(duì)AI芯片的需求不同。就云端芯片而言,2023年市場(chǎng)需求將達(dá)200億美元(根據(jù)Nvidia)。
聯(lián)系客服