Cloud TPU意圖優(yōu)化計算受限問題,并讓機器學習模型訓練更加容易。
當?shù)貢r間凌晨6點多,Google Brain負責人、谷歌首席架構(gòu)師Jeff Dean連發(fā)10條Twitter,只想告訴人們一件事情——我們推出了Cloud TPU的beta版,第三方廠商和開發(fā)者可以每小時花費6.5美元來使用它,不過數(shù)量有限,你需要先行填表申請。
一直以來,TPU都被用于谷歌內(nèi)部產(chǎn)品,隨著Cloud TPU的開放,不管是云服務(wù)還是AI芯片市場,都將迎來一場變動。
谷歌開放Cloud TPU測試版每小時6.5美元
數(shù)量有限
在2016年5月,谷歌在I/O大會上首次公布了TPU(張量處理單元)。彼時,TPU已經(jīng)在谷歌數(shù)據(jù)中心被使用了一年,而李世石與AlphaGo的那一場世紀大戰(zhàn)中,TPU也發(fā)揮了效用,并被谷歌成為AlphaGo打敗李世石的秘密武器。
而從今天開始,第三方廠商和開發(fā)者可以在Google Cloud Platform買到Cloud TPU產(chǎn)品,值得注意的是,此次發(fā)放的是測試版,且數(shù)量有限。如果你想使用它,就必須先在谷歌申請配額并明確自己的ML需求。
根據(jù)Jeff Dean在Twitter發(fā)布的第三條推文顯示,基于新發(fā)布的Cloud TPU,不到一天的時間,人們就可以在ImageNet上把ResNet-50模型訓練到75%的精度,成本不足200美元。
Cloud TPU意圖優(yōu)化計算受限問題
并讓機器學習模型訓練更加容易
谷歌博文顯示,Cloud TPU是谷歌設(shè)計的硬件加速器,專為加速、擴展特定的TensorFlow機器學習工作負載而優(yōu)化。每個Cloud TPU由4個定制化的ASIC組成,擁有180萬億次/秒浮點運算的計算能力,以及單塊板卡64GB的高寬帶內(nèi)存。
在使用上,這些具備高性能的板卡可以單獨使用,也可以通過超高速專用網(wǎng)絡(luò)形成一個可以達到每秒萬萬億次浮點運算的ML超級電腦,谷歌將之稱作“TPU pod”。在今年晚些時候,“TPU pod”將在谷歌云上線,通過GCP供應(yīng)這種更大的超級計算機。
除了解決“機器學習計算受限”這一令很多研究院和工程師都頭疼的問題,Cloud TPU還將幫助他們讓機器人學習模型訓練更加簡單易上手。
谷歌表示,利用Cloud TPU加上高水平的TensorFlow API,以及谷歌開源的一些高性能Cloud TPU模型,開發(fā)者現(xiàn)在能夠迅速展開工作,像是:
ResNet-50 以及其它流行的圖片分類模型;
針對機器翻譯和語言建模的 Transformer;
針對物體追蹤的 RetinaNet;
……
后面,谷歌方面還會開源更多的ML模型。
此外,Cloud TPU還提供了一個可擴展的ML平臺,對ML計算資源的計算和管理進行了簡化:
為團隊提供最先進的ML加速,并根據(jù)需求的變化動態(tài)調(diào)整容量(capacity);
直接使用經(jīng)過Google多年優(yōu)化的高度集成機器學習基礎(chǔ)設(shè)施,無需投入大量金錢、時間、專業(yè)人才來設(shè)計、安裝、維護現(xiàn)場機器學習計算集群,不用考慮供電、冷卻、聯(lián)網(wǎng)、存儲要求等問題;
無需安裝驅(qū)動程序,Cloud TPU全部預(yù)配置完成;
享受所有Google云服務(wù)同樣復雜的安全機制和實踐的保護。
一個月之內(nèi)
谷歌在機器學習連發(fā)兩個大招
在此之前,谷歌的TPU 一直是在谷歌內(nèi)部進行使用。目前,TPU已經(jīng)經(jīng)歷了兩代的變革,第一代TPU為谷歌搜索、谷歌翻譯、谷歌相冊等多種應(yīng)用提供背后支持。第二代TPU是谷歌于去年Google I/O 大會上推出的“Cloud TPU”,也就是現(xiàn)在面向第三方廠商和開發(fā)者開放的產(chǎn)品,
據(jù)Jeff Dean表示,第一代TPU主要用于推行運算,而第二代則“加入了能滿足訓練需求的硬件結(jié)構(gòu),同時還考慮了如何將這些誒計算單元組合成大型系統(tǒng)的架構(gòu)方法?!?/span>
而在性能方面,根據(jù)Jeff Dean今年曬出的“成績單”,僅第一代TPU,其就比現(xiàn)代GPU或CPU同類產(chǎn)品快15-30倍,性能/功耗約為30-80倍優(yōu)化。
Cloud TPU此次是首次對外全面開放,而關(guān)注谷歌和人工智能的人就會發(fā)現(xiàn),在一個月內(nèi),這已經(jīng)是谷歌第二次出大招了。
今年1月中旬,谷歌發(fā)布Cloud AutoML。簡單來講,谷歌Cloud AutoML就是一個“開發(fā)神器”,讓不懂機器學習的小白用戶也可以訓練出一個定制化的機器學習模型——開發(fā)者只需要上傳一組圖片,然后導入標簽或者通過App創(chuàng)建,隨后谷歌的系統(tǒng)就會自動生成一個定制化的機器學習模型。
當前,鑒于還是Alpha測試版階段,該服務(wù)只支持計算機視覺模型,在后面將陸續(xù)支持語音、翻譯、自然語言處理等標準機器學習模型。
最后
此前對TPU不以為然的黃仁勛還坐得住嗎?
不管是Cloud TPU,還是Cloud AutoML,谷歌所針對的都是機器學習模型的加速以及建模等等。
通過AlphaGo對李世石一戰(zhàn),人們見識到了谷歌TPU的厲害。不過,一直以來,TPU都是谷歌機器學習框架TensorFlow的專用處理器,這也使得AI芯片和云服務(wù)的廠商在市場上少了一個“勁敵”。
還記得此前,英偉達的黃仁勛在提及谷歌TPU時,列舉了一些參數(shù):新的TPU可以實現(xiàn)45 teraflop的運算能力,而英偉達最新的Volta GPU則能達到120 teraflop??偟膩碚f,就是對其不以為然。
不過,從最新的數(shù)據(jù)顯示,英偉達最新一代Titan顯卡Titan V擁有110 萬億次/秒浮點運算的計算能力。相比于Cloud TPU的計算性能,這一款GPU還是有點差距的。
與此同時,鑒于谷歌在云服務(wù)市場的占比以及軟硬件產(chǎn)品的普及度,在此次開放Cloud TPU后,云服務(wù)市場和AI芯片市場必將掀起軒然大波。對此,不知道黃仁勛還坐得住嗎?
聯(lián)系客服