摘要:回顧人工智能(artificial intelligence,AI)的發(fā)展歷史,我們可以清晰地看到腦科學(xué)給AI領(lǐng)域帶來的巨大突破,如深度學(xué)習(xí)。目前,盡管AI及其應(yīng)用的發(fā)展趨勢(shì)已經(jīng)超越了人類的預(yù)期,但AI與人類智能之間仍然存在著難以逾越的鴻溝。從腦科學(xué)到AI、從了解大腦到模擬大腦,在腦科學(xué)與AI研究之間建立起一座橋梁已經(jīng)成為一種迫切需求。為此,我們首先需要通過研究新型腦成像技術(shù)來探索腦科學(xué)的秘密,建立大腦的動(dòng)態(tài)連接圖譜以及將神經(jīng)科學(xué)實(shí)驗(yàn)與理論、模型和統(tǒng)計(jì)學(xué)相結(jié)合等。在此基礎(chǔ)上,我們將進(jìn)一步研究新一代AI理論和方法,從而建立起從機(jī)器感知和機(jī)器學(xué)習(xí)到機(jī)器思維和機(jī)器決策的顛覆性模型和工作模式。與此同時(shí),本文還將討論在腦科學(xué)啟發(fā)新一代AI過程中的一些機(jī)遇與挑戰(zhàn)。
關(guān)鍵詞:人工智能;腦科學(xué)
1. 引言
從人工智能(artificial intelligence,AI)發(fā)展的歷史來看,我們可以清楚地看到腦科學(xué)與AI之間的聯(lián)系,許多AI的先驅(qū)科學(xué)家也是腦科學(xué)家。使用顯微鏡發(fā)現(xiàn)的生物大腦的神經(jīng)連接啟發(fā)了人們對(duì)人工神經(jīng)網(wǎng)絡(luò)[7]的研究;使用電子探測器發(fā)現(xiàn)的卷積特性和多層結(jié)構(gòu)啟發(fā)了人們對(duì)卷積神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)[10,11]的研究;使用通過正電子發(fā)射斷層掃描(PET)成像系統(tǒng)發(fā)現(xiàn)的注意力機(jī)制啟發(fā)了人們對(duì)注意力模塊[15]的研究;使用功能磁共振成像(fMRI)技術(shù)發(fā)現(xiàn)的工作記憶啟發(fā)了人們對(duì)機(jī)器學(xué)習(xí)模型中記憶模塊的研究,并最終發(fā)展成為對(duì)長短期記憶模型(LSTM)[25]的研究;使用雙光子成像系統(tǒng)發(fā)現(xiàn)的學(xué)習(xí)時(shí)期形成的脊柱變化啟發(fā)了人們對(duì)彈性權(quán)重鞏固(EWC)模型[31]的研究。雖然目前AI領(lǐng)域和腦科學(xué)領(lǐng)域似乎有些脫節(jié),但是腦科學(xué)的研究成果揭示了與AI原理相關(guān)的一些重要問題,并進(jìn)一步使AI在理論和技術(shù)上取得了重大突破?,F(xiàn)在我們處于深度學(xué)習(xí)時(shí)代,而深度學(xué)習(xí)更是直接受到了腦科學(xué)的啟發(fā)。我們可以看到,越來越多的腦科學(xué)研究成果可以激發(fā)新的深度學(xué)習(xí)模型。在不久的將來,AI的下一個(gè)突破很可能來自腦科學(xué)。
2. 受腦科學(xué)啟發(fā)的AI
AI的研究目標(biāo)是開展理論研究和開發(fā)能夠代替生物智能或人類智能來執(zhí)行任務(wù)的計(jì)算機(jī)系統(tǒng),并且該系統(tǒng)具有感知、識(shí)別、決策和控制等功能[1] 。相反,腦科學(xué)(亦被稱為神經(jīng)科學(xué))的研究目標(biāo)是研究生物大腦的結(jié)構(gòu)、功能和運(yùn)行機(jī)制,如大腦是如何處理信息、做出決策以及與環(huán)境交互的[2]。顯然,AI可以被看作是對(duì)人類智能的模擬。因此,研究AI的一種簡單的方法是將AI與腦科學(xué)及其相關(guān)領(lǐng)域(如認(rèn)知科學(xué)和心理學(xué))相結(jié)合。事實(shí)上,許多AI研究的先驅(qū),如Alan Turing[3]、Marvin Minsky[4]、John McCarthy[5]和Geoffrey Hinton[6],都對(duì)這兩個(gè)領(lǐng)域非常感興趣,并為AI的研究做出了巨大的貢獻(xiàn),這也歸功于他們?cè)谀X科學(xué)方面的扎實(shí)背景。
在現(xiàn)代計(jì)算機(jī)問世之后,AI的研究目標(biāo)是建立智能“思維”機(jī)器。自AI誕生以來,AI與腦科學(xué)之間就存在著相互聯(lián)系。在20世紀(jì)初,由于顯微鏡的發(fā)展,研究人員觀察到了包括大腦在內(nèi)的神經(jīng)系統(tǒng)中神經(jīng)元之間的聯(lián)系。受到神經(jīng)元之間相互聯(lián)系的啟發(fā),計(jì)算機(jī)科學(xué)家開發(fā)了人工神經(jīng)網(wǎng)絡(luò),這是AI史上最早、最成功的模型之一。1949年,Hebbian學(xué)習(xí)算法被提出[7],它是最早的學(xué)習(xí)算法之一。該算法的提出是受到了生物神經(jīng)系統(tǒng)力學(xué)的啟發(fā)。當(dāng)突觸兩側(cè)(輸入和輸出)的神經(jīng)元具有高度相關(guān)的輸出信號(hào)時(shí),兩個(gè)神經(jīng)元之間的突觸會(huì)被加強(qiáng);同樣,在Hebbian學(xué)習(xí)算法中,當(dāng)輸入與輸出信號(hào)高度相關(guān)時(shí),學(xué)習(xí)算法會(huì)增強(qiáng)兩個(gè)神經(jīng)元之間的連接權(quán)重。之后,人工神經(jīng)網(wǎng)絡(luò)受到研究人員的廣泛關(guān)注。一項(xiàng)具有代表性的研究成果是感知器[8],它直接模擬了大腦中的信息存儲(chǔ)和組織功能。感知器是一種具有多維輸入信號(hào)的單層人工神經(jīng)網(wǎng)絡(luò),它為之后的多層網(wǎng)絡(luò)的發(fā)展奠定了基礎(chǔ)。
1959年,1981年諾貝爾生理學(xué)或醫(yī)學(xué)獎(jiǎng)獲得者Hubel和Wiesel利用電子信號(hào)探測器捕捉到了神經(jīng)元在視覺系統(tǒng)看到不同圖像時(shí)的反應(yīng)[9]。來自哺乳動(dòng)物視覺皮層的單細(xì)胞記錄揭示了視覺輸入信號(hào)是如何在V1區(qū)域的簡單和復(fù)雜細(xì)胞中被過濾和匯集的。這項(xiàng)研究表明,大腦中的視覺處理系統(tǒng)進(jìn)行了卷積操作,而且該系統(tǒng)具有多層結(jié)構(gòu)。生物系統(tǒng)利用具有非線性計(jì)算的連續(xù)層級(jí)結(jié)構(gòu)將原始視覺輸入信號(hào)轉(zhuǎn)換為越來越復(fù)雜的特征集,從而使視覺系統(tǒng)在識(shí)別視覺輸入信號(hào)時(shí)對(duì)姿勢(shì)和比例等變換保持不變。這些發(fā)現(xiàn)直接啟發(fā)了卷積神經(jīng)網(wǎng)絡(luò)[10,11],卷積神經(jīng)網(wǎng)絡(luò)是現(xiàn)階段深度學(xué)習(xí)技術(shù)的基本模型[12]。人工神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的另一個(gè)關(guān)鍵組成部分是反向傳播算法[13],它解決了如何調(diào)整人工神經(jīng)網(wǎng)絡(luò)中的參數(shù)或權(quán)重的問題。有趣的是,反向傳播算法的基本思想最初是由神經(jīng)科學(xué)家和認(rèn)知科學(xué)家在20世紀(jì)80年代提出的[14],而不是由計(jì)算機(jī)科學(xué)家或機(jī)器學(xué)習(xí)研究人員提出的。這些科學(xué)家觀測到,神經(jīng)系統(tǒng)的微觀結(jié)構(gòu)和生物大腦的神經(jīng)系統(tǒng)是通過一個(gè)學(xué)習(xí)過程逐步被調(diào)整的,其目的是最小化誤差和最大化輸出回報(bào)。注意力機(jī)制是在19世紀(jì)90年代首次被作為心理學(xué)概念而引入的,它的設(shè)計(jì)目的是使智能體可以選擇性地集中在一些重要信息上而不是全部信息上,從而改善認(rèn)知過程 [15]。自20世紀(jì)90年代以來,研究者開始使用新的醫(yī)學(xué)成像技術(shù),如PET,去研究大腦的注意力機(jī)制。1999年,PET被用于研究大腦的選擇性注意力[16]。之后,研究人員通過運(yùn)用更多的成像技術(shù),發(fā)現(xiàn)了更多關(guān)于生物大腦的注意力機(jī)制[17]。受到生物大腦中注意力機(jī)制的啟發(fā),AI研究人員開始將注意力模塊納入基于時(shí)間[18]或空間[19]方式的人工神經(jīng)網(wǎng)絡(luò)中,分別提高了深度神經(jīng)網(wǎng)絡(luò)在自然語言處理和計(jì)算機(jī)視覺任務(wù)中的性能表現(xiàn)。利用注意力模塊,人工神經(jīng)網(wǎng)絡(luò)能夠選擇性地關(guān)注重要的對(duì)象或詞語并忽略不相關(guān)的部分,從而使訓(xùn)練和推理過程比傳統(tǒng)深度網(wǎng)絡(luò)更高效。
機(jī)器學(xué)習(xí)模型通常會(huì)忘記它已經(jīng)處理的數(shù)據(jù)中的信息,而生物智能卻能夠?qū)⑦@種信息記住一段時(shí)間,生物大腦有工作記憶功能,它能記住過去的數(shù)據(jù)。工作記憶的概念最初是在20世紀(jì)70年代被引入的,它是通過一些認(rèn)知實(shí)驗(yàn)所總結(jié)的[20,21]。自1990年以來,研究人員就開始使用PET和fMRI來研究生物大腦的工作記憶,并發(fā)現(xiàn)大腦的前額葉皮質(zhì)是關(guān)鍵部分[22–24]。受到腦科學(xué)工作記憶研究的啟發(fā),AI研究人員試圖將記憶模塊納入機(jī)器學(xué)習(xí)模型。一種典型的方法是LSTM[25],該方法為諸多序列處理任務(wù)奠定了基礎(chǔ),如自然語言處理、視頻理解以及時(shí)間序列分析。最近的一項(xiàng)研究表明,工作記憶模塊可以使機(jī)器學(xué)習(xí)模型執(zhí)行復(fù)雜的推理和工作任務(wù),如找到特定點(diǎn)之間的最短路徑并在隨機(jī)生成的圖形中推斷缺失的連接[26]。通過記憶以往的知識(shí),我們可以進(jìn)行一次性學(xué)習(xí),即只需要標(biāo)記少量的樣本就可以學(xué)習(xí)一個(gè)新的概念[27]。
連續(xù)學(xué)習(xí)是生物智能的一項(xiàng)基本技能,利用該方法可以在不會(huì)忘記以前任務(wù)的同時(shí)學(xué)習(xí)到新的任務(wù)。生物神經(jīng)系統(tǒng)是如何實(shí)現(xiàn)在不同時(shí)間學(xué)習(xí)多個(gè)任務(wù)的,這是一個(gè)具有挑戰(zhàn)性的研究課題。1990年,雙光子顯微技術(shù) [28]使得在單個(gè)突觸的空間尺度上觀察樹突棘在學(xué)習(xí)期間的體內(nèi)結(jié)構(gòu)和功能成為可能[29]。通過這種成像系統(tǒng),一些研究人員在2010年對(duì)大腦中新皮質(zhì)在連續(xù)學(xué)習(xí)期間的可塑性進(jìn)行了研究,研究結(jié)果揭示了神經(jīng)系統(tǒng)在學(xué)習(xí)新任務(wù)時(shí)是如何通過控制神經(jīng)元的生長來記住之前的任務(wù)的[30]。受到生物神經(jīng)系統(tǒng)研究的啟發(fā),一種名為EWC的學(xué)習(xí)算法被提出并被用于深度神經(jīng)網(wǎng)絡(luò)的研究。這種算法在學(xué)習(xí)新任務(wù)時(shí)控制著網(wǎng)絡(luò)參數(shù)的變化,從而保留了舊的知識(shí),使深度學(xué)習(xí)中的連續(xù)學(xué)習(xí)成為可能[31]。
強(qiáng)化學(xué)習(xí)(RL)是一種被廣泛使用的機(jī)器學(xué)習(xí)框架,該框架已被用于許多應(yīng)用程序,如AlphaGo。它與AI智能體如何采取行動(dòng)并與環(huán)境進(jìn)行交互相關(guān)。事實(shí)上,RL也與生物學(xué)習(xí)過程密切相關(guān)[32]。時(shí)間差分學(xué)習(xí)(TDL)是一種重要的RL方法,也是RL的早期算法之一。TDL通過價(jià)值函數(shù)的當(dāng)前估計(jì)值的引導(dǎo)來學(xué)習(xí),該策略類似于動(dòng)物系統(tǒng)中二階調(diào)節(jié)的概念[33]。
3. 腦計(jì)劃
許多國家和地區(qū)都開展了大腦研究項(xiàng)目以加速腦科學(xué)研究,如表1所示[34–39]。盡管研究的重點(diǎn)和路線不同,但基于腦科學(xué)的發(fā)現(xiàn)進(jìn)行的下一代AI的開發(fā)是所有大腦研究項(xiàng)目的共同目標(biāo)。各國政府和大多數(shù)科學(xué)家似乎已達(dá)成共識(shí),即發(fā)展神經(jīng)成像和控制技術(shù)可以幫助我們探索大腦的工作原理,從而使我們能夠設(shè)計(jì)出更好的、包括硬件和軟件在內(nèi)的AI架構(gòu)。在研究期間,包括生物學(xué)、物理學(xué)、信息學(xué)和化學(xué)在內(nèi)的多個(gè)學(xué)科之間的相互合作對(duì)于實(shí)現(xiàn)不同方面的新發(fā)現(xiàn)是非常必要的。
在過去五年中,在大腦研究項(xiàng)目的支持下,研究者們?nèi)〉昧酥匾某晒9膺z傳學(xué)的發(fā)展使我們能夠以單細(xì)胞分辨率精確地控制神經(jīng)活動(dòng)[40]。利用先進(jìn)的波束調(diào)制方法可以進(jìn)一步實(shí)現(xiàn)大規(guī)模控制[41,42]。與此同時(shí),多種方法已經(jīng)被研究人員提出,并被用來以3D形式記錄大規(guī)模神經(jīng)活動(dòng)[43–45]。被記錄到的神經(jīng)元數(shù)量在不斷增加,從數(shù)十個(gè)增加到數(shù)千個(gè),而且隨著大視場高分辨率成像技術(shù)的不斷發(fā)展,近期這一數(shù)量可能增加到數(shù)百萬個(gè)[46–48]。神經(jīng)光子學(xué)領(lǐng)域中顯著的技術(shù)進(jìn)步為神經(jīng)科學(xué)中的重要發(fā)現(xiàn)提供了技術(shù)基礎(chǔ)[49,50]。例如,腦計(jì)劃(BRAIN Initiative)的關(guān)注重點(diǎn)將逐漸轉(zhuǎn)向發(fā)現(xiàn)驅(qū)動(dòng)型科學(xué)。
BRAIN Initiative旨在通過神經(jīng)科學(xué)革新機(jī)器學(xué)習(xí),其中一個(gè)經(jīng)典案例是MICrONS(大腦皮質(zhì)網(wǎng)絡(luò)的機(jī)器智能計(jì)劃)。通過使用連續(xù)切片電子顯微鏡,研究人員能夠以前所未有的分辨率通過3D形式重建復(fù)雜的神經(jīng)結(jié)構(gòu)[51]。結(jié)合多尺度數(shù)據(jù)的高通量數(shù)據(jù)分析技術(shù)[52,53],一些創(chuàng)新性的科學(xué)方法可以被開發(fā)以探索基本的神經(jīng)科學(xué)問題[54]?;谶@種被改進(jìn)的理解方式,研究人員提出了用于深度神經(jīng)網(wǎng)絡(luò)的創(chuàng)新性架構(gòu),并嘗試對(duì)當(dāng)前架構(gòu)的工作原理進(jìn)行理解[55,56]。此外,當(dāng)前的深度學(xué)習(xí)技術(shù)還可以對(duì)研究中大量的數(shù)據(jù)處理進(jìn)行加速,從而形成良性循環(huán)。
受益于近年來的技術(shù)發(fā)展,我們能夠以前所未有的時(shí)空分辨率系統(tǒng)地觀察神經(jīng)活動(dòng)。同時(shí),許多大規(guī)模數(shù)據(jù)分析技術(shù)被提出,用于解決此類技術(shù)產(chǎn)生的大量數(shù)據(jù)所帶來的挑戰(zhàn)。按照這條路線,各種大腦研究項(xiàng)目可以指數(shù)形式加快腦科學(xué)研究。通過越來越多的研究成果,我們可以更好地了解人類的大腦。毫無疑問,大腦的工作原理將會(huì)啟發(fā)下一代AI的設(shè)計(jì),這就像過去對(duì)大腦研究的發(fā)現(xiàn)啟發(fā)了今天的AI成就一樣。
4. 腦科學(xué)和AI之間的橋梁——儀器
利用儀器對(duì)大腦進(jìn)行的觀測對(duì)AI的出現(xiàn)和發(fā)展作出了巨大的貢獻(xiàn)。現(xiàn)代神經(jīng)生物學(xué)的發(fā)展是從亞細(xì)胞到組織水平的微觀結(jié)構(gòu)的信息獲取開始的,這一過程受益于顯微鏡的發(fā)明以及細(xì)胞和組織中物質(zhì)的偏色。著名的神經(jīng)解剖學(xué)家Santiago Ramo?n y Cajal是第一個(gè)使用Golgi染色法去觀察大量神經(jīng)系統(tǒng)組織標(biāo)本的人,他提出了神經(jīng)元和神經(jīng)信號(hào)傳導(dǎo)的基本理論。Cajal和Golgi于1906年分享了諾貝爾生理學(xué)或醫(yī)學(xué)獎(jiǎng)(Nobel Prize in Physiology or Medicine)。Cajal現(xiàn)在被廣泛稱為“現(xiàn)代神經(jīng)生物學(xué)之父”。
當(dāng)前,我們對(duì)人類大腦日益豐富的理解得益于神經(jīng)技術(shù)所取得的各種進(jìn)步,包括神經(jīng)元、神經(jīng)系統(tǒng)和大腦的控制、處理和信息獲取,以及認(rèn)知和行為學(xué)習(xí)等。在這些進(jìn)步中,用于高質(zhì)量成像采集的新技術(shù)和新儀器的研發(fā)早已成為焦點(diǎn),并有望在未來受到更多關(guān)注。例如,美國在2013年推出的BRAIN Initiative旨在繪制動(dòng)態(tài)大腦圖像,用于展示腦細(xì)胞與其周圍神經(jīng)回路之間快速而復(fù)雜的相互作用,并揭示神經(jīng)組織與大腦功能之間的多維交織關(guān)系。這類研究成果有望讓我們了解大腦記錄、處理、應(yīng)用、存儲(chǔ)和檢索大量信息的過程。2017年,BRAIN Initiative資助了哈佛大學(xué)的一些跨學(xué)科科學(xué)家,這些科學(xué)家致力于對(duì)神經(jīng)環(huán)路與行為之間的關(guān)系進(jìn)行研究,他們主要通過使用高質(zhì)量成像技術(shù)來獲取和處理各種條件下神經(jīng)系統(tǒng)的大型數(shù)據(jù)集。
傳統(tǒng)的神經(jīng)科學(xué)研究主要采用電生理學(xué)方法,如利用金屬電極進(jìn)行神經(jīng)刺激和信號(hào)采集,這種方法具有靈敏度高、時(shí)間分辨率高的優(yōu)點(diǎn)。然而,電生理學(xué)方法是侵入性的,它不適用于長時(shí)間的觀測。同時(shí),該方法的空間分辨率較低、擴(kuò)展能力有限,難以在單神經(jīng)元分辨率下對(duì)全局神經(jīng)活動(dòng)進(jìn)行并行觀測。相比之下,光學(xué)方法是非侵入性的,該方法具有高空間分辨率、高時(shí)間分辨率以及高靈敏度。這類方法能夠從神經(jīng)元個(gè)體、神經(jīng)活動(dòng)及其相互作用中獲取動(dòng)態(tài)和靜態(tài)信息,并能夠把對(duì)神經(jīng)系統(tǒng)的分析從亞細(xì)胞水平擴(kuò)展到整個(gè)大腦。此外,光學(xué)方法還被發(fā)展成為一種控制工具,利用該工具通過光遺傳學(xué)方法可以控制高時(shí)空分辨率下的神經(jīng)活動(dòng)。
開發(fā)具備大視場和高時(shí)空分辨率的技術(shù)和儀器已迫在眉睫。在空間尺度上,成像必須從幾十微米大小的亞微米突觸和神經(jīng)元跨越到幾毫米寬的大腦。在時(shí)間尺度上,幀獲取的速度應(yīng)高于所使用的熒光蛋白探針的響應(yīng)速率。然而,由于光學(xué)成像的固有衍射極限,其在大視場、高分辨率和大景深之間存在著固有的矛盾。適用于單個(gè)神經(jīng)元甚至更小組織的高分辨成像技術(shù)往往無法觀測到幾毫米以上的大腦組織結(jié)構(gòu),并且動(dòng)態(tài)成像通常伴隨著更高的噪聲。然而,用于實(shí)時(shí)和長時(shí)間采集的活體非侵入式成像技術(shù)僅限于發(fā)生散色光的組織顆粒表層。如何突破上述瓶頸以及實(shí)現(xiàn)大視場、高時(shí)空分辨率和大景深將成為未來十年微觀成像技術(shù)發(fā)展面臨的最大挑戰(zhàn)。
最后,對(duì)微觀結(jié)構(gòu)維度的探索可能會(huì)產(chǎn)生一種新型的神經(jīng)計(jì)算單元,而對(duì)宏觀結(jié)構(gòu)維度進(jìn)行的實(shí)時(shí)探索有助于理解跨腦思維的操作,并揭示了大腦在復(fù)雜環(huán)境下利用多個(gè)信息源(聽覺、視覺、嗅覺、觸覺等)進(jìn)行綜合決策的機(jī)制。毫無疑問,整個(gè)大腦實(shí)時(shí)探索微觀和宏觀結(jié)構(gòu)維度的二元性將促進(jìn)下一代AI的發(fā)展。因此,顯微成像儀器的發(fā)展目標(biāo)是實(shí)現(xiàn)從像素到體速、從靜態(tài)到動(dòng)態(tài)的更寬、更高、更快和更深的成像。這種儀器可以在“生物學(xué)的宏觀認(rèn)知決策”與“神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與功能”之間建立直接聯(lián)系,為揭示“認(rèn)知與智能”的計(jì)算本質(zhì)奠定基礎(chǔ),最終促進(jìn)人類的自我認(rèn)知,從而彌補(bǔ)AI與人類智能之間的差距。
致謝
本工作得到了中國工程院戰(zhàn)略咨詢研究項(xiàng)目(2019-XZ-9)、國家自然科學(xué)基金委員會(huì)重大科研儀器設(shè)備研制專項(xiàng)(61327902)、北京市科委項(xiàng)目(Z181100003118014)的資助。
References
[1] Russell SJ,Norvig P. Artificial intelligence: a modern approach. 3rd ed. New York: Pearson Education, 2010.
[2] Miller GA. The cognitive revolution:a historical perspective. Trends Cogn Sci 2003;7(3):141–4.
[3] Turing A. Computing machinery and intelligence. Mind 1950;236:433–60.
[4] Minsky M,Papert S. Perceptrons:an introduction to computational geometry. Cambridge,MA:MIT Press,1987.
[5] McCarthy J. Defending AI research:a collection of essays and reviews. Stanford:CSLI Publications,1996.
[6] Hinton GE,Rumelhart DE,McClelland JL. Distributed representations. In:Parallel distributed processing:explorations in the microstructure of cognition:foundations. Cambridge, MA: MIT Press;1986. p. 77–109.
[7] Hebb DO. The organization of behavior. Hoboken:John Wiley & Sons,1949.
[8] Rosenblatt F. The perceptron: a probabilistic model for information storage and organization in the brain. Psychol Rev 1958;65(6):386–408.
[9] Hubel DH, Wiesel TN. Receptive fields of single neurones in the cat’s striate cortex. J Physiol 1959;148(3):574–91.
[10] LeCun Y,Boser B, Denker JS,Henderson D,Howard RE,Hubbard W,et al. Backpropagation applied to handwritten zip code recognition. Neural Comput 1989;1(4):541–51.
[11] Krizhevsky A,Sutskever I, Hinton G. ImageNet classification with deep convolutional neural networks. In:Pereira F,Burges CJC,Bottou L,and Weinberger KQ, editors. Proceedings of the Neural Information Processing Systems 2012;2012 Dec 3–6;Lake Tahoe,NV,USA;2012. p. 1097–105.
[12] LeCun Y,Bengio Y,Hinton G. Deep learning. Nature 2015;521(7553):436–44.
[13] Rumelhart DE,McClelland JL. Learning internal representations by error propagation. In:Parallel distributed processing:explorations in the microstructure of cognition: foundations. Cambridge,MA: MIT Press;1986. p. 318–62.
[14] Rumelhart DE,McClelland JL. Parallel distributed processing:explorations in the microstructures of cognition:foundations. Cambridge,MA: MIT Press;1986.
[15] James W,Burkhardt F,Bowers F,Skrupskelis IK. The principles of psychology. New York:Henry Holt;1890.
[16] Raichle ME. Positron emission tomography. In:Wilson RA,Keil LC,editors. The MIT encyclopedia of the cognitive sciences. Cambridge,MA:MIT Press:1999. p. 656–8.
[17] Scolari M,Seidl-Rathkopf KN,Kastner S. Functions of the human frontoparietal attention network:evidence from neuroimaging. Curr Opin Behav Sci 2015;1:32–9.
[18] Bahdanau D,Cho K,Bengio Y. Neural machine translation by jointly learning to align and translate. 2014. arXiv:1409.0473.
[19] Reed S,Zhang Y,Zhang Y,Lee H. Deep visual analogy-making. In:Cortes C,Lawrence ND,Lee DD,Sugiyama M,and Garnett R, editors. Proceedings of the Neural Information Processing Systems 2015:2015 Dec 7–12:Montreal,QC,Canada;2015. p. 1252–60.
[20] Atkinson RC,Shiffrin RM. Human memory:a proposed system and its control processes. In:Spence KW,Spence JT,editors. Psychology of learning and motivation (volume 2). New York:Academic Press;1968. p. 89–195.
[21] Baddeley AD,Hitch G. Working memory. In:Bower GH,editor. Psychology of learning and motivation (volume 8). New York:Academic Press;1974. p. 47–89.
[22] Goldman-Rakic PS. Cellular and circuit basis of working memory in prefrontal cortex of nonhuman primates. Prog Brain Res 1990;85:325–35.
[23] McCarthy G,Puce A,Constable RT,Krystal JH,Gore JC,Goldman-Rakic P. Activation of human prefrontal cortex during spatial and nonspatial working memory tasks measured by functional MRI. Cereb Cortex 1996;6(4):600–11.
[24] Jonides J, Smith EE, Koeppe RA, Awh E, Minoshima S, Mintun MA. Spatial working memory in humans as revealed by PET. Nature 1993;363(6430):623–5.
[25] Hochreiter S,Schmidhuber J. Long short-term memory. Neural Comput 1997;9(8):1735–80.
[26] Graves A,Wayne G,Reynolds M,Harley T,Danihelka I,Grabska-Barwin?ska A, et al. Hybrid computing using a neural network with dynamic external memory. Nature 2016;538(7626):471–6.
[27] Santoro A,Bartunov S,Botvinick M,Wierstra D,Lillicrap T. One-shot learning with memory-augmented neural networks. 2016. arXiv:1605.06065.
[28] Denk W,Strickler JH,Webb WW. Two-photon laser scanning fluorescence microscopy. Science 1990;248(4951):73–6.
[29] Nishiyama J,Yasuda R. Biochemical computation for spine structural plasticity. Neuron 2015;87(1):63–75.
[30] Cichon J,Gan WB. Branch-specific dendritic Ca2+ spikes cause persistent synaptic plasticity. Nature 2015;520(7546):180–5.
[31] Kirkpatrick J,Pascanu R,Rabinowitz N,Veness J,Desjardins G,Rusu AA,et al. Overcoming catastrophic forgetting in neural networks. Proc Natl Acad Sci USA 2017;114(13):3521–6.
[32] Sutton R,Barto A. Introduction to reinforcement learning. Cambridge,MA:MIT Press;1998.
[33] Sutton RS,Barto AG. Toward a modern theory of adaptive networks:expectation and prediction. Psychol Rev 1981;88(2):135–70.
[34] Insel TR,Landis SC,Collins FS. The NIH BRAIN Initiative. Science 2013;340(6133):687–8.
[35] Jeong S,Lee Y,Jun B,Ryu Y,Sohn J,Kim S,Woo C,et al. Korea Brain Initiative:emerging issues and institutionalization of neuroethics. Neuron 2019;101(3):390?3.
[36] Amunts K,Ebell C,Muller J,Telefont M,Knoll A,Lippert T. The human brain project:creating a European research infrastructure to decode the human brain. Neuron 2016;92(3):574–81.
[37] Okano H,Sasaki E,Yamamori T,Iriki A,Shimogori T,Yamaguchi Y,et al. Brain/MINDS: a Japanese national brain project for marmoset neuroscience. Neuron 2016;92(3):582–90.
[38] Jabalpurwala I. Brain Canada: one brain one community. Neuron 2016;92(3):601?6.
[39] Alliance A. A neuroethics framework for the Australian Brain Initiative. Neuron 2019;101(3):365?9.
[40] Deisseroth K. Optogenetics. Nat Methods 2011;8(1):26–9.
[41] Pe?gard NC,Mardinly AR,Oldenburg IA,Sridharan S,Waller L,Adesnik H. Three-dimensional scanless holographic optogenetics with temporal focusing(3D-SHOT). Nat Commun 2017; 8(1):1228.
[42] Hochbaum DR, Zhao Y, Farhi SL, Klapoetke N, Werley CA, Kapoor V, et al. Alloptical electrophysiology in mammalian neurons using engineered microbial rhodopsins. Nat Methods 2014;11(8):825–33.
[43] Ji N,F(xiàn)reeman J,Smith SL. Technologies for imaging neural activity in large volumes. Nat Neurosci 2016;19(9):1154–64.
[44] Weisenburger S,Vaziri A. A guide to emerging technologies for large-scale and whole-brain optical imaging of neuronal activity. Annu Rev Neurosci 2018;41(1):431–52.
[45] Ahrens MB,Orger MB,Robson DN,Li JM,Keller PJ. Whole-brain functional imaging at cellular resolution using light-sheet microscopy. Nat Methods 2013;10(5):413–20.
[46] Kim TH,Zhang Y,Lecoq J,Jung JC,Li J,Zeng H,et al. Long-term optical access to an estimated one million neurons in the live mouse cortex. Cell Rep 2016;17(12):3385–94.
[47]McConnell G,Tr?g?rdh J,Amor R,Dempster J,Reid E,Amos WB. A novel optical microscope for imaging large embryos and tissue volumes with sub cellular resolution throughout. Elife 2016;5:e18659.
[48] Stirman JN,Smith IT,Kudenov MW,Smith SL. Wide field-of-view,multiregion,two-photon imaging of neuronal activity in the mammalian brain. Nat Biotechnol 2016;34(8):857–62.
[49] Chen JL,Carta S,Soldado-Magraner J,Schneider BL,Helmchen F. Behaviourdependent recruitment of long-range projection neurons in somatosensory cortex. Nature 2013;499:336–40.
[50] Sofroniew NJ,F(xiàn)lickinger D,King J,Svoboda K. A large field of view twophoton mesoscope with subcellular resolution for in vivo imaging. Elife 2016;5:e14472.
[51] Joesch M,Mankus D,Yamagata M,Shahbazi A,Schalek R,Suissa-Peleg A,et al. Reconstruction of genetically identified neurons imaged by serial-section electron microscopy. Elife 2016;5:e15015.
[52] Friedrich J,Yang W, Soudry D,Mu Y,Ahrens MB,Yuste R,et al. Multi-scale approaches for high-speed imaging and analysis of large neural populations. PLoS Comput Biol 2017;13(8):e1005685.
[53] Berens P,F(xiàn)reeman J,Deneux T,Chenkov N,McColgan T,Speiser A,et al. Community-based benchmarking improves spike rate inference from twophoton calcium imaging data. PLoS Comput Biol 2018;14(5):e1006157.
[54] Paninski L,Cunningham JP. Neural data science:accelerating the experimentanalysis-theory cycle in large-scale neuroscience. Curr Opin Neurobiol 2018;50:232–41.
[55] Hoffer E,Hubara I,Soudry D. Train longer,generalize better:closing the generalization gap in large batch training of neural networks. In:Guyon I,Luxburg UV,Bengio S,Wallach H,F(xiàn)ergus R,Vishwanathan S,and Garnett R,editors. Proceedings of the Neural Information Processing Systems 2017; 2017 Dec 4–9;Long Beach,CA,USA;2017. p. 1731–41.
[56] Kadmon J,Sompolinsky H. Optimal architectures in a solvable model of deep networks. In:Lee DD,Sugiyama M,Luxburg UV,Guyon I,and Garnett R,editors.Proceedings of the Neural Information Processing Systems 2016;2016 Dec 5–10;Barcelona,Spain;2016. p. 4788–96.
聯(lián)系客服