今年3月16日,英特爾研究院與美國康奈爾大學的研究人員在《自然-機器智能》(Nature Machine Intelligence)雜志上聯(lián)合發(fā)表了一篇論文,展示了通過采用一套源自大腦嗅覺回路結構和動力學的神經算法,對英特爾神經擬態(tài)研究芯片(Neuromorphic chips) Loihi進行訓練,使其能夠在存在明顯噪聲和遮蓋的情況下,具備學習和識別10種危險化學品氣味的能力,其中包括丙酮、氨和甲烷。未來,這樣的神經擬態(tài)計算系統(tǒng)將被用于環(huán)境監(jiān)測、危險物質檢測、工廠質量控制等領域。
英特爾研究院科學家Nabil Imam在位于美國加州圣克拉拉的神經擬態(tài)計算實驗室中,手持一塊Loihi神經擬態(tài)測試芯片。他和美國康奈爾大學的一個研究小組正在計算機芯片上構建數(shù)學算法,用于模擬人們聞到某種氣味時大腦神經網絡的反應。(圖片來源:Walden Kirsch/英特爾公司)
2天后,3月18日,英特爾繼續(xù)宣布其最新神經擬態(tài)研究系統(tǒng)Pohoiki Springs已準備就緒。Pohoiki Springs是一個數(shù)據(jù)中心機架式系統(tǒng),它將768塊Loihi芯片集成在5臺標準服務器大小的機箱中,能夠提供1億個神經元的計算能力。而在2019年7月,包含64塊Loihi芯片,代號為“Pohoiki Beach”的800萬神經元神經擬態(tài)系統(tǒng)已經被用于稀疏編碼、圖搜索和約束滿足問題等專業(yè)應用領域。
數(shù)據(jù)中心機架式系統(tǒng)Pohoiki Springs(資料來源: Tim Herman/英特爾公司)
從13萬到1億
作為英特爾中國研究院院長,神經擬態(tài)計算是宋繼強博士領導的英特爾中國研究院重點關注的前沿科學之一。之所以要給予高度關注,是因為人腦的能耗只有20瓦,僅用其中的部分能耗,人腦就能書寫、繪畫,可以較為輕松的識別分析很抽象的事物和情感,這是目前標準通用計算無法做到的。那么,怎樣才能將數(shù)十千瓦能耗的計算降低到人腦這種20瓦的水平?
其實Loihi神經擬態(tài)芯片在2017年就已經面世,它內置了128個核,擁有13萬個神經元和1.3億突觸,還包括了片上存儲結構。說的更容易理解一些,1只瓢蟲的大腦大約有25-50萬神經元,蟑螂大腦約有100萬神經元,斑馬魚大腦約有1000萬神經元,倉鼠大腦約有9000萬個神經元。而Pohoiki Springs的1億神經元,已經相當于一個小型哺乳動物大腦神經元的數(shù)量總和。
為什么要做這么大規(guī)模的系統(tǒng)?按照宋繼強博士給出的解釋,這是因為研究發(fā)現(xiàn),Loihi系統(tǒng)規(guī)模的增加與更好更快的解決大規(guī)模實際問題之間,存在著直接線性的收益。但他認為現(xiàn)在就去判斷神經擬態(tài)大規(guī)模應用的時間和所謂的殺手級應用還為時尚早,一兩年后可能會有更清晰的看法。
神經擬態(tài)計算屬于在傳統(tǒng)半導體工藝和芯片架構上的一種嘗試和突破,通過模擬人腦神經元的構造和神經元之間互聯(lián)的機制,能夠在低功耗以及少量訓練數(shù)據(jù)的條件下持續(xù)不斷自我學習,大幅提高了能效比。
從時間節(jié)點上來看,神經擬態(tài)計算概念提出的時間比量子計算提出的時間更晚,并且由于對人腦了解進展非常緩慢,神經擬態(tài)計算的研究進展也比較慢。目前,神經擬態(tài)計算的研究有一些實驗室和初創(chuàng)公司,大公司只有IBM和英特爾。
研究機構Gartner預測,2025年,神經擬態(tài)芯片有望取代GPU,成為先進人工智能部署的主要計算架構,但宋繼強并不同意這樣的判斷?!吧窠洈M態(tài)計算不會取代現(xiàn)有的CPU、GPU和FPGA等芯片,神經擬態(tài)芯片主要是希望去解決在較低功耗下完成前端感知,且需要持續(xù)需要學習以提高識別能力的應用,這些應用能很好地發(fā)揮神經擬態(tài)計算的優(yōu)勢。對于游戲讀取、圖像分類、標注等應用,現(xiàn)有的芯片就可以很好滿足?!彼f。
三維挑戰(zhàn)
在英特爾的官方描述中,神經擬態(tài)計算被定義為“Next Generation of AI”。硬件層面,以Loihi為例,它采用了異步脈沖方式設計,由多個獨立的時鐘驅動,用戶可根據(jù)應用的需求,只讓需要工作的部分工作,其它部分處于待機狀態(tài),因此功耗能夠達到毫瓦級。同時,也可以根據(jù)應用需求去擴展系統(tǒng),兼具靈活和低成本的優(yōu)勢;軟件和應用層面,神經擬態(tài)計算芯片可以方便構建一個包含時間和空間處理的模型,然后對數(shù)據(jù)進行模式的匹配,僅需一個樣本的訓練就得到超過90%的高準確率。如果使用傳統(tǒng)方法,要達到與Loihi相同的分類準確率,學習一類氣味就需要3000倍以上的訓練樣本。
“為什么要使用異步脈沖方式設計?是因為我們想實現(xiàn)極低的功耗。”宋繼強解釋說,CPU、GPU、FPGA采用的都是同步電路設計方式,也就是采用同一個時鐘驅動,芯片內的計算單元和存儲單元根據(jù)這個共同的時鐘同時工作和停止工作,這種設計的好處是可以解決大規(guī)模集成電路容易出錯的問題,但工作效率不夠高。
而作為類腦芯片,Loihi采用的異步電路與同步電路最大的差異在于使用了分立而非同步時鐘進行驅動。也就是說,在處理不同任務時,只有與該任務相關的電路在工作,其余部分仍舊保持待機狀態(tài),這也與人類大腦的工作模式類似。試想一下,我們的大腦是在一直工作嗎?在處理一個任務時,是所有區(qū)域都會參與其中嗎?顯然不是。
這么看來,一方面,我們需要能夠更好地理解大腦在實時處理復雜信息的同時卻只消耗極少能量的高效工作機制,并把這些機制用到芯片中去。另一方面,為了獲得更高的性能,又需要將神經擬態(tài)計算芯片進行互聯(lián)獲得線性的性能增長,這就給系統(tǒng)設計人員帶來了三個維度的挑戰(zhàn):首先,要考慮如何在最下層將多塊全數(shù)字異步設計的芯片互聯(lián)起來,并同時確保連接的有效性和時效性;其次,中間軟件層該如何支持芯片的互連計算、分布式計算和靈活分區(qū);最后,為了支持更大規(guī)模的動態(tài)規(guī)劃和優(yōu)化實驗支持,上層軟件工具鏈就非常重要。
數(shù)據(jù)少,能不能做AI ?
目前為止,人工智能在視覺、聽覺兩方面取得了極大的突破。宋繼強認為這在很大程度上歸功于人類能夠非常容易的獲得視覺和聽覺這兩類數(shù)據(jù),容易標注,容易根據(jù)不同的語境/語義進行分類,完全符合深度學習對數(shù)據(jù)的幾大要求:數(shù)據(jù)量足夠;有標注好的數(shù)據(jù);有可用于訓練的數(shù)據(jù)池和測試的集合,這樣訓練出來的模型能夠很好地處理真實場景。而事實上,現(xiàn)有的深度神經網絡比較擅長做的事,也是對于視覺數(shù)據(jù)和語音數(shù)據(jù)進行處理。但對嗅覺和味覺來說,情況就有些特殊,數(shù)據(jù)量和可標注的數(shù)據(jù)都比較少,檢測手段也不夠高明,所以整體發(fā)展相比視覺和聽覺落后很多。
按照Gartner給出的AI發(fā)展路線圖,AI的發(fā)展已經開始從2.0走向3.0時代。統(tǒng)計式學習、數(shù)據(jù)庫命令的機器學習、依靠大規(guī)模數(shù)據(jù)訓練得到模型,然后再將其應用于某些特定領域中,是AI 2.0時代的典型標志。但在接下來的AI 3.0時代,人們希望AI能從更少量的數(shù)據(jù)中學習,能夠適應環(huán)境變化、做推理、被解釋,做到“邊工作、邊學習、邊演進”,不光支持前端傳感器的低功耗事件,還可以支持包括深度神經網絡(DNN)、卷積神經網絡、脈沖神經網絡(Spiking Neuron Networks)在內的多種學習模型,當前的傳統(tǒng)AI硬件可能會在技術支撐方面遇到難題。
下圖很好地解釋了如何通過神經擬態(tài)芯片進行“嗅覺”分辨的機理。首先想一想我們是如何識別氣味的?比如拿起一個水果聞一聞,水果分子就會刺激鼻腔內的嗅覺細胞。鼻腔內的細胞會立即向你的大腦嗅覺系統(tǒng)發(fā)送信號,一組相互連接的神經元中的電脈沖就會在這個嗅覺系統(tǒng)中產生嗅覺。無論聞到的是什么氣味,大腦中的神經元網絡都會產生該物體特有的感覺。同樣,人類的視覺和聽覺、回憶、情緒和決策都有各自的神經網絡,它們都以特定的方式進行計算。
而“電子鼻系統(tǒng)”則是通過構造一個類似人類鼻腔的構造,用化學/有機物傳感器陣列代替感知細胞,在氣味經過的時候形成時間脈沖序列,然后產生空間分布,從而產生與人類嗅覺系統(tǒng)較為接近的感知機理,再利用搭載的脈沖神經網絡模型對采集到的數(shù)據(jù)進行模式匹配,如果匹配成功,系統(tǒng)就會產生最高響應。
也就是說,Loihi嗅覺系統(tǒng)的網絡構造借鑒了人類嗅覺系統(tǒng)結構設計,但它是全新的模型設計,硬件架構有比較大的改變。因為它本身利用了人腦神經元,基于直接脈沖序列,強度可以累積,運用模擬而不是純數(shù)字方式工作類腦器件。在此基礎之上,既可以用低功耗方式將現(xiàn)有深度神經網絡移植上去,也可以利用脈沖神經網絡(SNN)以非深度學習方式進行神經擬態(tài)計算。而SNN的優(yōu)勢在于充分考慮了時間序列上的差異,把多個輸入其中的時間差異編在一起,去模仿人類的感知和處理節(jié)奏,這和現(xiàn)有基于大數(shù)據(jù)的深度學習機理完全不同。
不過,類腦研究非常緩慢,只對神經元和視覺/聽覺/嗅覺感知機理有所了解還遠遠不夠,很多深層次的形成機理尚在研究階段。至少在嗅覺領域,相似的氣味就很可能會在大腦中引發(fā)相似的神經活動模式。有時候,即便是人類自身,也很難分辨出究竟是一種氣味還是多種香味的混合。
因此,目前神經擬態(tài)芯片的研究還只是停留在通過算法搭建比較復雜的腦神經元工作模型,實現(xiàn)信息“激勵”與一定規(guī)模的連接,以及通過憶阻器等底層器件進行“近內存計算”的階段。接下來,除了繼續(xù)了解人腦認知機制外,更重要的是需要找到好的應用導向,不斷擴大社區(qū)范圍,要讓不同社區(qū)不同種類的研究人員能夠比較容易的去使用新硬件去解決AI規(guī)劃、優(yōu)化和計算問題。
那么,“是否需要等到人類對于腦的認識有了足夠充分的了解之后,再去進行神經擬態(tài)研究呢?”宋繼強對此給出了否定的回答,他認為確實需要借鑒腦科學的進展,但不必等到所有腦的秘密全都揭開,我們才能達到一個大的突破,這個突破始終都在發(fā)生,神經擬態(tài)計算也是一樣。
目前,人類對腦神經元的工作模式、突觸之間的連接,彼此之間多種學習的方法(監(jiān)督學習的、無監(jiān)督學習、關聯(lián)學習、談話學習)已經有所了解,其實就可以用現(xiàn)有硬件架構體系進行支持,在上層提供底層軟件堆棧后開放給社區(qū)使用。這與深度學習的發(fā)展歷程是相似的,都是先通過簡單應用實現(xiàn)突破,帶動產業(yè)正向推動,然后實現(xiàn)軟硬件系統(tǒng)成本的大幅度下降。
本站僅提供存儲服務,所有內容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權內容,請
點擊舉報。