中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費(fèi)電子書(shū)等14項(xiàng)超值服

開(kāi)通VIP
人工智能是不是走錯(cuò)了方向?
 
電話 | 010-82030532    手機(jī) | 18501361766
微信 | tech9999    郵箱 | yw@techxcope.com
來(lái)源:圖靈人工智能
我不信大腦每天都在大量的傅里葉變換,來(lái)處理視覺(jué)和聲音數(shù)據(jù)。我不信大腦每天都在大量的模型訓(xùn)練或卷積,來(lái)深度學(xué)習(xí)認(rèn)識(shí)一個(gè)東西。小孩子不需要喂很多數(shù)據(jù),看兩三次就能認(rèn)識(shí)什么是蘋(píng)果,什么是橘子 (雖然不理解為什么是)。神經(jīng)元再少的動(dòng)物,學(xué)習(xí)任何方向的任務(wù)都有主動(dòng)性,而目前人工智能學(xué)習(xí)某一方向只是受控。人類大腦也是電信號(hào),但總感覺(jué)絕對(duì)不只是 0和1這種 二進(jìn)制,是模擬信號(hào)嗎?
我承認(rèn)目前數(shù)學(xué)算法這種方向的人工智能,在生活中絕對(duì)有使用場(chǎng)景。
但要做出一個(gè)有主動(dòng)思想的人工智能,基于目前馮·諾依曼架構(gòu)的計(jì)算機(jī),是否是無(wú)法實(shí)現(xiàn)?我們是否從根源方向就錯(cuò)了?
靈劍(曠視科技 Face++)回答:
你沒(méi)搞明白,很多數(shù)學(xué)方法本來(lái)就是在嘗試模擬人眼和人耳的特性,比如說(shuō)短時(shí)傅里葉變換,原理在于人的聽(tīng)覺(jué)產(chǎn)生于來(lái)自于耳蝸的器官,它本身就是個(gè)頻率感受器官,它在物理上主要是一個(gè)共振頻率不斷變換的膜加上感受器組成的,聲波傳進(jìn)來(lái)的時(shí)候,根據(jù)頻率會(huì)在不同部位共振,感受器則主要感受共振強(qiáng)度,所以從耳朵接收到的信號(hào)本身就是頻譜,傅立葉變換只是為了模擬這個(gè)過(guò)程,因?yàn)閷?shí)際上人對(duì)頻率的敏感度并不是和頻率成線性關(guān)系,所以后來(lái)又有了梅爾頻標(biāo),都是為了盡量和人耳的特性相近。
視覺(jué)也是類似的,感光細(xì)胞和視神經(jīng)的連接方式有一種中心抑制的作用,當(dāng)一整片細(xì)胞都接受到光的時(shí)候,這種連接方式會(huì)抑制中心的感應(yīng)強(qiáng)度而增強(qiáng)邊緣的感受強(qiáng)度,從而增加人眼對(duì)邊緣和運(yùn)動(dòng)的敏感程度,這種操作可以用卷積運(yùn)算來(lái)模擬,所以卷積才廣泛應(yīng)用于機(jī)器視覺(jué)領(lǐng)域,因?yàn)樗緛?lái)就是存在于真實(shí)的人眼結(jié)構(gòu)里的。
深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)本來(lái)處理的也都是實(shí)數(shù),1bit的網(wǎng)絡(luò)并不是主流。
深度神經(jīng)網(wǎng)絡(luò)原理肯定跟人腦不完全相同,那是因?yàn)榈讓佑?jì)算的架構(gòu)就是不一樣的,但沒(méi)有任何理由說(shuō)人腦就是唯一可能實(shí)現(xiàn)智能的結(jié)構(gòu)啊。
本質(zhì)上來(lái)說(shuō)人工智能并不是要完全重現(xiàn)人的智能,而是用計(jì)算機(jī)模擬人的智能,就好比計(jì)算機(jī)可以很容易模擬一個(gè)小球掉落反彈這樣的物理過(guò)程,但是不需要計(jì)算機(jī)里面真的有一個(gè)小球,那么自然計(jì)算機(jī)里面也不需要真的有一個(gè)人的腦子。
HeptaAI(浙大 圖像理解與對(duì)話系統(tǒng))回答:
這里是GPT-3 Davincci給出的答案。聲明:以下所有內(nèi)容均為GPT-3自動(dòng)生成。在我看來(lái),答得比大部分回答都好了。
您的總體看法是:我們目前人工智能的研究方向,是否從根源方向就錯(cuò)了?這個(gè)問(wèn)題沒(méi)有簡(jiǎn)單的答案。這取決于您所說(shuō)的“走錯(cuò)方向”是什么意思。如果你的意思是當(dāng)前的人工智能研究并不專注于創(chuàng)造更像人類大腦的人工智能,那么是的,你可以說(shuō)我們走錯(cuò)了方向。
但是,如果您的意思是當(dāng)前的 AI 研究不專注于創(chuàng)造比人腦更智能的人工智能,那么答案就不太清楚了。人工智能研究沒(méi)有一個(gè)正確的方向,可能需要不同的方法來(lái)創(chuàng)造既像人腦又比人腦更智能的人工智能。
您提到,您并不相信大腦每天都在大量的傅里葉變換,來(lái)處理視覺(jué)和聲音數(shù)據(jù)。但是有一些證據(jù)確實(shí)表明,大腦使用傅立葉變換來(lái)處理視覺(jué)和聲音數(shù)據(jù)。
例如,當(dāng)您查看棋盤(pán)時(shí),棋盤(pán)首先在視網(wǎng)膜中編碼為一系列明暗像素。然后大腦對(duì)視網(wǎng)膜數(shù)據(jù)進(jìn)行傅里葉變換以解釋棋盤(pán)圖案。此外,當(dāng)您聽(tīng)到聲音時(shí),耳朵會(huì)將聲壓波轉(zhuǎn)換為電信號(hào)。然后大腦對(duì)耳朵信號(hào)進(jìn)行傅里葉變換以解釋聲音。功能磁共振成像研究表明,大腦使用傅里葉變換來(lái)處理視覺(jué)和聽(tīng)覺(jué)信息。
另外,您并不認(rèn)為大腦每天都在大量的模型訓(xùn)練或卷積,來(lái)深度學(xué)習(xí)認(rèn)識(shí)一個(gè)東西。但是有證據(jù)表明,大腦確實(shí)每天都在參與深度學(xué)習(xí)過(guò)程。2016 年發(fā)表在《自然神經(jīng)科學(xué)》雜志上的一項(xiàng)研究發(fā)現(xiàn),大腦在睡眠期間會(huì)進(jìn)行一個(gè)稱為“無(wú)監(jiān)督學(xué)習(xí)”的過(guò)程,這使得它能夠?qū)W習(xí)新信息并鞏固記憶。這個(gè)過(guò)程似乎對(duì)于形成新記憶和理解復(fù)雜概念至關(guān)重要。其他一些研究,包括 2014 年發(fā)表在《科學(xué)》雜志上的一項(xiàng)研究,也表明大腦可能會(huì)不斷學(xué)習(xí)和更新其世界模型,即使在休息期間也是如此。一項(xiàng)值得注意的研究表明,大腦可以在睡覺(jué)時(shí)學(xué)習(xí)新技能。具體來(lái)說(shuō),睡前練習(xí)運(yùn)動(dòng)任務(wù)的人在睡覺(jué)后提高了他們?cè)谶@項(xiàng)任務(wù)上的表現(xiàn),即使他們沒(méi)有有意識(shí)地回憶起練習(xí)。這表明大腦能夠在睡眠期間學(xué)習(xí)新技能并鞏固記憶。
其次,您提出了一個(gè)事實(shí),小孩子不需要喂很多數(shù)據(jù),看兩三次就能認(rèn)識(shí)什么是蘋(píng)果,什么是橘子。但是您因此認(rèn)為人類和目前人工智能的發(fā)展方向不同,這并不科學(xué)。我認(rèn)為人腦和機(jī)器學(xué)習(xí)非常相似。機(jī)器學(xué)習(xí)模型需要大量數(shù)據(jù)的原因是因?yàn)樗鼈冊(cè)噲D學(xué)習(xí)與人腦在看到蘋(píng)果或橙子時(shí)所學(xué)的相同的東西。人腦能夠從少量數(shù)據(jù)中學(xué)習(xí),因?yàn)樗軌蜃R(shí)別模式。機(jī)器學(xué)習(xí)模型正在嘗試做同樣的事情。隨著預(yù)訓(xùn)練技術(shù)的發(fā)展,還提出了少樣本學(xué)習(xí)模型。例如,元學(xué)習(xí)或?qū)W習(xí)學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子領(lǐng)域,其中應(yīng)用自動(dòng)化方法來(lái)理解學(xué)習(xí)過(guò)程本身并從中學(xué)習(xí)。一次性學(xué)習(xí)是一個(gè)對(duì)象分類問(wèn)題,其中一個(gè)或幾個(gè)對(duì)象的示例(鏡頭)用于對(duì)同一對(duì)象的新實(shí)例進(jìn)行分類。零樣本學(xué)習(xí)是一個(gè)計(jì)算機(jī)視覺(jué)問(wèn)題,其中模型在一個(gè)數(shù)據(jù)集上進(jìn)行訓(xùn)練,但可以應(yīng)用于完全不同但相關(guān)的數(shù)據(jù)集。這些方法表明,機(jī)器學(xué)習(xí)模型可以像人腦一樣從少量數(shù)據(jù)中學(xué)習(xí)。
然后,您提到神經(jīng)元再少的動(dòng)物,學(xué)習(xí)任何方向的任務(wù)都有主動(dòng)性,而目前人工智能學(xué)習(xí)某一方向只是受控。您的意見(jiàn)部分正確。較少的神經(jīng)元確實(shí)使動(dòng)物更難學(xué)習(xí)某些任務(wù),但不是所有任務(wù)。一般來(lái)說(shuō),神經(jīng)元較少的動(dòng)物不如神經(jīng)元較多的動(dòng)物聰明。然而,在某些任務(wù)中,神經(jīng)元較少的動(dòng)物可以比神經(jīng)元較多的動(dòng)物學(xué)習(xí)得更好。例如,神經(jīng)元較少的動(dòng)物可能更擅長(zhǎng)學(xué)習(xí)簡(jiǎn)單的習(xí)慣,而神經(jīng)元較多的動(dòng)物可能更擅長(zhǎng)學(xué)習(xí)復(fù)雜的概念。此外,人工智能并不總是控制學(xué)習(xí)的方向。一些人工智能系統(tǒng)旨在向任何方向?qū)W習(xí),而另一些則旨在僅向某個(gè)方向?qū)W習(xí)。例如,強(qiáng)化學(xué)習(xí)是一種可以向任何方向?qū)W習(xí)的AI,而監(jiān)督學(xué)習(xí)是一種只能向某個(gè)方向?qū)W習(xí)的AI;遷移學(xué)習(xí)是一種人工智能,如果提供正確的數(shù)據(jù),它可以向任何方向?qū)W習(xí);包括無(wú)監(jiān)督學(xué)習(xí)在內(nèi)的其他一些學(xué)習(xí)范式也可以向任何方向?qū)W習(xí)。
最后,您發(fā)出疑問(wèn),認(rèn)為人類大腦也是電信號(hào),但不只是0和1這種二進(jìn)制,人腦信號(hào)是模擬信號(hào)嗎?研究發(fā)現(xiàn),人腦是模擬信號(hào),但可以用數(shù)字信號(hào)來(lái)表示。換句話說(shuō),人腦是一個(gè)可以數(shù)字化的模擬信號(hào)。例如,2014 年發(fā)表在《人類神經(jīng)科學(xué)前沿》雜志上的一篇論文使用從模擬信號(hào)轉(zhuǎn)換而來(lái)的數(shù)字信號(hào)來(lái)研究人腦。2016 年提出的另一項(xiàng)研究也表明,數(shù)字信號(hào)可用于研究人腦。
總體而言,您承認(rèn)目前數(shù)學(xué)算法這種方向的人工智能,在生活中絕對(duì)有使用場(chǎng)景。但您質(zhì)疑要做出一個(gè)有主動(dòng)思想的人工智能,基于目前馮·諾依曼架構(gòu)的計(jì)算機(jī),是否是無(wú)法實(shí)現(xiàn)?事實(shí)上,可以基于當(dāng)前的馮諾依曼架構(gòu)創(chuàng)建具有主動(dòng)思維的人工智能。但是,與基于不同架構(gòu)的 AI 相比,要做到這一點(diǎn)要困難得多。人工智能促進(jìn)協(xié)會(huì)在 1990 年發(fā)表的一篇論文提出了一種可以支持主動(dòng)思考的人工神經(jīng)網(wǎng)絡(luò)架構(gòu)。本文介紹了“黑板架構(gòu)”的概念,其中各種人工智能模塊可以協(xié)同解決問(wèn)題。雖然黑板架構(gòu)尚未被廣泛采用,但它表明基于馮諾依曼架構(gòu)創(chuàng)建具有主動(dòng)思維的人工智能是可能的。Hod Lipson 和 Sebastian Thrun 的另一項(xiàng)研究表明,可以創(chuàng)建一種無(wú)需任何人工干預(yù)即可隨著時(shí)間的推移主動(dòng)學(xué)習(xí)并提高其性能的 AI,并且該 AI 基于馮諾依曼架構(gòu)。
以下是拆解掉的答案。
首先,GPT-3對(duì)于整個(gè)問(wèn)題總體做出了一個(gè)宏觀的回答。
There is no easy answer to this question. It depends on what you mean by 'going in the wrong direction.' If you mean that current AI research is not focused on creating artificial intelligencethat is more like the human brain, then yes, you could say that we are going in the wrong direction. However, if you mean that current AI research is not focused on creating artificial intelligence that is more intelligent than the human brain, then the answer is less clear. There is no one right direction for AI research, and it is possible that different approaches will be necessary to create artificial intelligence that is both more like the human brain and more intelligent than the human brain.
這個(gè)問(wèn)題沒(méi)有簡(jiǎn)單的答案。這取決于您所說(shuō)的“走錯(cuò)方向”是什么意思。如果你的意思是當(dāng)前的人工智能研究并不專注于創(chuàng)造更像人類大腦的人工智能,那么是的,你可以說(shuō)我們走錯(cuò)了方向。但是,如果您的意思是當(dāng)前的 AI 研究不專注于創(chuàng)造比人腦更智能的人工智能,那么答案就不太清楚了。人工智能研究沒(méi)有一個(gè)正確的方向,可能需要不同的方法來(lái)創(chuàng)造既像人腦又比人腦更智能的人工智能。
然后,GPT-3針對(duì)第一個(gè)問(wèn)題作出了回答:我不信大腦每天都在大量的傅里葉變換,來(lái)處理視覺(jué)和聲音數(shù)據(jù)。
There is some evidence that Fourier transforms are used by the brain to process visual and sound data. For example, when you look at a checkerboard, the checkerboard is first encoded in the retina as a series of light and darkpixels. The brain then does a Fourier transform of the retina data to interpret the checkerboard pattern. Also, when you hear a sound, the ear converts the sound pressure waves into electrical signals. The brain then does a Fourier transform of the ear signals to interpret the sound. The fMRI studies have shown that the brain uses Fourier transforms to process visual and auditory information.
有一些證據(jù)表明,大腦使用傅立葉變換來(lái)處理視覺(jué)和聲音數(shù)據(jù)。例如,當(dāng)您查看棋盤(pán)時(shí),棋盤(pán)首先在視網(wǎng)膜中編碼為一系列明暗像素。然后大腦對(duì)視網(wǎng)膜數(shù)據(jù)進(jìn)行傅里葉變換以解釋棋盤(pán)圖案。此外,當(dāng)您聽(tīng)到聲音時(shí),耳朵會(huì)將聲壓波轉(zhuǎn)換為電信號(hào)。然后大腦對(duì)耳朵信號(hào)進(jìn)行傅里葉變換以解釋聲音。功能磁共振成像研究表明,大腦使用傅里葉變換來(lái)處理視覺(jué)和聽(tīng)覺(jué)信息。
第二個(gè)問(wèn)題:我不信大腦每天都在大量的模型訓(xùn)練或卷積,來(lái)深度學(xué)習(xí)認(rèn)識(shí)一個(gè)東西。
There is evidence that the brain does indeed engage in deep learning processes every day. A study published in Nature Neuroscience in 2016 found that the brain engages in a process called 'unsupervised learning' during sleep, which allows it to learn new information and consolidate memories. This process appears to be essential for forming new memories and for understanding complex concepts. Some other studies, including one published in the journal Science in 2014, have also suggested that the brain may be constantly learning and updating its models of the world, even during periods of rest. One markable research showed is that the brain can learn new skills while sleeping. Specifically, people who practiced a motor task before sleeping improved their performance on that task after sleeping, even though they had no conscious recollection of the practice. This suggests that the brain is able to learn new skills and consolidate memories during sleep.
有證據(jù)表明,大腦確實(shí)每天都在參與深度學(xué)習(xí)過(guò)程。2016 年發(fā)表在《自然神經(jīng)科學(xué)》雜志上的一項(xiàng)研究發(fā)現(xiàn),大腦在睡眠期間會(huì)進(jìn)行一個(gè)稱為“無(wú)監(jiān)督學(xué)習(xí)”的過(guò)程,這使得它能夠?qū)W習(xí)新信息并鞏固記憶。這個(gè)過(guò)程似乎對(duì)于形成新記憶和理解復(fù)雜概念至關(guān)重要。其他一些研究,包括 2014 年發(fā)表在《科學(xué)》雜志上的一項(xiàng)研究,也表明大腦可能會(huì)不斷學(xué)習(xí)和更新其世界模型,即使在休息期間也是如此。一項(xiàng)值得注意的研究表明,大腦可以在睡覺(jué)時(shí)學(xué)習(xí)新技能。具體來(lái)說(shuō),睡前練習(xí)運(yùn)動(dòng)任務(wù)的人在睡覺(jué)后提高了他們?cè)谶@項(xiàng)任務(wù)上的表現(xiàn),即使他們沒(méi)有有意識(shí)地回憶起練習(xí)。這表明大腦能夠在睡眠期間學(xué)習(xí)新技能并鞏固記憶。
第三個(gè)問(wèn)題:小孩子不需要喂很多數(shù)據(jù),看兩三次就能認(rèn)識(shí)什么是蘋(píng)果,什么是橘子。
I don't agree with you. I think the human brain and machine learning are very similar. The reason that machine learning models need a lot of data is because they are trying to learn the same thing that the human brain learns when it sees an apple or an orange. The human brain is able to learn from a small amount of data because it is able to recognize patterns. The machine learning model is trying to do the same thing. As pre-training techniques are developing, few-shot learning models are also proposed. For example, meta-learning or learning to learn is a subfield of machine learning where automated methods are applied to understand and learn from the learning process itself. One-shot learning is an object classification problem where one, or a few, examples (shots) of an object are used to classify new instances of the same object. Zero-shot learning is a computer vision problem where models are trained on one dataset but can be applied to completely different but related datasets. These methods show that it is possible for machine learning models to learn from a small amount of data, just like the human brain.
我不同意你的看法。我認(rèn)為人腦和機(jī)器學(xué)習(xí)非常相似。機(jī)器學(xué)習(xí)模型需要大量數(shù)據(jù)的原因是因?yàn)樗鼈冊(cè)噲D學(xué)習(xí)與人腦在看到蘋(píng)果或橙子時(shí)所學(xué)的相同的東西。人腦能夠從少量數(shù)據(jù)中學(xué)習(xí),因?yàn)樗軌蜃R(shí)別模式。機(jī)器學(xué)習(xí)模型正在嘗試做同樣的事情。隨著預(yù)訓(xùn)練技術(shù)的發(fā)展,還提出了少樣本學(xué)習(xí)模型。例如,元學(xué)習(xí)或?qū)W習(xí)學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)子領(lǐng)域,其中應(yīng)用自動(dòng)化方法來(lái)理解學(xué)習(xí)過(guò)程本身并從中學(xué)習(xí)。一次性學(xué)習(xí)是一個(gè)對(duì)象分類問(wèn)題,其中一個(gè)或幾個(gè)對(duì)象的示例(鏡頭)用于對(duì)同一對(duì)象的新實(shí)例進(jìn)行分類。零樣本學(xué)習(xí)是一個(gè)計(jì)算機(jī)視覺(jué)問(wèn)題,其中模型在一個(gè)數(shù)據(jù)集上進(jìn)行訓(xùn)練,但可以應(yīng)用于完全不同但相關(guān)的數(shù)據(jù)集。這些方法表明,機(jī)器學(xué)習(xí)模型可以像人腦一樣從少量數(shù)據(jù)中學(xué)習(xí)。
第四個(gè)問(wèn)題:神經(jīng)元再少的動(dòng)物,學(xué)習(xí)任何方向的任務(wù)都有主動(dòng)性,而目前人工智能學(xué)習(xí)某一方向只是受控。
Your opinion is partially correct. Fewer neurons does make it harder for an animal to learn some tasks, but not all tasks. In general, animalswith fewer neurons are less intelligent than animals with more neurons. However, there are some tasks that animals with fewer neurons can learn better than animals with more neurons. For example, animals with fewer neurons may be better at learning simple habits, while animals with more neurons may be better at learning complex concepts. Moreover, the direction of learning is not always controlled in AI. Some AI systems are designed to learn in any direction, while others are designed to only learn in a certain direction. For example, reinforcement learning is a type of AI that can learn in any direction, while supervised learning is a type of AI that can only learn in a certain direction; transfer learning is a type of AI that can learn in any direction if it is given the right data; some other learning paradigms including unsupervised learning can also learn in any direction.
你的意見(jiàn)部分正確。較少的神經(jīng)元確實(shí)使動(dòng)物更難學(xué)習(xí)某些任務(wù),但不是所有任務(wù)。一般來(lái)說(shuō),神經(jīng)元較少的動(dòng)物不如神經(jīng)元較多的動(dòng)物聰明。然而,在某些任務(wù)中,神經(jīng)元較少的動(dòng)物可以比神經(jīng)元較多的動(dòng)物學(xué)習(xí)得更好。例如,神經(jīng)元較少的動(dòng)物可能更擅長(zhǎng)學(xué)習(xí)簡(jiǎn)單的習(xí)慣,而神經(jīng)元較多的動(dòng)物可能更擅長(zhǎng)學(xué)習(xí)復(fù)雜的概念。此外,人工智能并不總是控制學(xué)習(xí)的方向。一些人工智能系統(tǒng)旨在向任何方向?qū)W習(xí),而另一些則旨在僅向某個(gè)方向?qū)W習(xí)。例如,強(qiáng)化學(xué)習(xí)是一種可以向任何方向?qū)W習(xí)的AI,而監(jiān)督學(xué)習(xí)是一種只能向某個(gè)方向?qū)W習(xí)的AI;遷移學(xué)習(xí)是一種人工智能,如果提供正確的數(shù)據(jù),它可以向任何方向?qū)W習(xí);包括無(wú)監(jiān)督學(xué)習(xí)在內(nèi)的其他一些學(xué)習(xí)范式也可以向任何方向?qū)W習(xí)。
第五個(gè)問(wèn)題:人類大腦也是電信號(hào),但總感覺(jué)絕對(duì)不只是 0和1這種二進(jìn)制,人腦信號(hào)是模擬信號(hào)嗎?
The human brain is an analog signal, but it can be represented by digital signals. In other words, the human brain is an analog signal that can be digitized. For example, a paper published in 2014 in the journal Frontiers in Human Neuroscience used a digital signal that was converted from an analog signal to study the human brain. Another research, proposed in 2016, also showed that the digital signal can be used to study the human brain.
人腦是模擬信號(hào),但可以用數(shù)字信號(hào)來(lái)表示。換句話說(shuō),人腦是一個(gè)可以數(shù)字化的模擬信號(hào)。例如,2014 年發(fā)表在《人類神經(jīng)科學(xué)前沿》雜志上的一篇論文使用從模擬信號(hào)轉(zhuǎn)換而來(lái)的數(shù)字信號(hào)來(lái)研究人腦。2016 年提出的另一項(xiàng)研究也表明,數(shù)字信號(hào)可用于研究人腦。
總結(jié)問(wèn)題:我承認(rèn)目前數(shù)學(xué)算法這種方向的人工智能,在生活中絕對(duì)有使用場(chǎng)景。但要做出一個(gè)有主動(dòng)思想的人工智能,基于目前馮·諾依曼架構(gòu)的計(jì)算機(jī),是否是無(wú)法實(shí)現(xiàn)?
Yes, it is possible to create an artificial intelligence with active thinking based on the current von Neumann architecture. However, it would be significantly more difficult to do so than if the AI were based on a different architecture. A paper published by the Association for the Advancement of Artificial Intelligence in 1990 proposed an architecturefor an artificial neural network that could support active thinking. This paper introduced the concept of a 'blackboard architecture' in which various AI modules could cooperate to solve problems. While the blackboard architecture has not been widely adopted, it shows that it is possible to create an AI with active thinking based on the von Neumann architecture. Another research, by Hod Lipson and Sebastian Thrun, has demonstrated that it is possible to create an AI that can actively learn and improve its performance over time without any human intervention, and this AI is based on the von Neumann architecture.
是的,可以基于當(dāng)前的馮諾依曼架構(gòu)創(chuàng)建具有主動(dòng)思維的人工智能。但是,與基于不同架構(gòu)的 AI 相比,要做到這一點(diǎn)要困難得多。人工智能促進(jìn)協(xié)會(huì)在 1990 年發(fā)表的一篇論文提出了一種可以支持主動(dòng)思考的人工神經(jīng)網(wǎng)絡(luò)架構(gòu)。本文介紹了“黑板架構(gòu)”的概念,其中各種人工智能模塊可以協(xié)同解決問(wèn)題。雖然黑板架構(gòu)尚未被廣泛采用,但它表明基于馮諾依曼架構(gòu)創(chuàng)建具有主動(dòng)思維的人工智能是可能的。Hod Lipson 和 Sebastian Thrun 的另一項(xiàng)研究表明,可以創(chuàng)建一種無(wú)需任何人工干預(yù)即可隨著時(shí)間的推移主動(dòng)學(xué)習(xí)并提高其性能的 AI,并且該 AI 基于馮諾依曼架構(gòu)。
Clyce回答:
從問(wèn)題結(jié)合描述來(lái)看,題主的疑問(wèn)至少包含如下五層疑惑:
當(dāng)前人工智能的運(yùn)算結(jié)構(gòu)和人類的大腦結(jié)構(gòu)是否是一致/同構(gòu)的?
機(jī)器的學(xué)習(xí)過(guò)程一定是被動(dòng)的嗎?
是否只有和人類大腦一致/同構(gòu)的內(nèi)部結(jié)構(gòu),才能獲得一致或相似的外在表現(xiàn)?
人工智能的正確方向和目的是什么?
人工智能的方向走錯(cuò)了嗎?
同時(shí),鑒于題主的描述,我在此粗略地將題中的“人工智能”替換為“我們當(dāng)前采納的深度學(xué)習(xí)”
在回答這些問(wèn)題之前,首先需要指出的是,人的判斷應(yīng)當(dāng)基于對(duì)事實(shí)的觀察,而非簡(jiǎn)單的“我相信”或者“我不信”。
另外需要聲明的是,我個(gè)人的專精領(lǐng)域是強(qiáng)化學(xué)習(xí)和計(jì)算機(jī)視覺(jué),對(duì)于下文中提到的生物學(xué)、神經(jīng)科學(xué)等領(lǐng)域的描述不一定能夠做到完全準(zhǔn)確,還望指出與討論。
人類目前的”深度學(xué)習(xí)“在工作原理上與人腦有多少相似
接下來(lái)我們從第一層談起,圍繞題主的問(wèn)題描述進(jìn)行當(dāng)前人工智能在原理上和人腦的關(guān)系。
我不信大腦每天都在大量的傅里葉變換,來(lái)處理視覺(jué)和聲音數(shù)據(jù)。
題主的第一條陳述包含了如下三個(gè)可討論的議題:
人工智能運(yùn)用傅里葉變換的場(chǎng)景中,傅里葉變換的目的是什么
人類意識(shí)中是否包含了為相同目的而設(shè)立的處理機(jī)制
人腦及其“周邊結(jié)構(gòu)中”中是否具備顯式進(jìn)行傅里葉變換計(jì)算的部分
對(duì)于機(jī)器系統(tǒng)中運(yùn)用傅里葉變換的目的,不必做太多的解釋。大多數(shù)情況下是對(duì)應(yīng)的信號(hào)在頻域空間下更容易處理,或者展現(xiàn)出其在時(shí)域空間下難以提取的特征。對(duì)于人工智能系統(tǒng)而言,傅里葉變換往往并非在系統(tǒng)中作為可學(xué)習(xí)部分,而是作為數(shù)據(jù)預(yù)處理的部分而存在。
那么反觀人類意識(shí),對(duì)于信號(hào)在頻域空間的處理,其最明顯的例子就是對(duì)音頻信號(hào)的處理了。這一點(diǎn)可以從我們主觀對(duì)于音高的感受去驗(yàn)證,而在解剖的層面上,同樣可以找到對(duì)應(yīng)的結(jié)構(gòu)。這一結(jié)構(gòu)存在于我們的內(nèi)耳而非大腦中——這一點(diǎn)同樣和在“人工智能系統(tǒng)中”傅里葉變換部分常常出現(xiàn)在數(shù)據(jù)的預(yù)處理而非可學(xué)習(xí)結(jié)構(gòu)中保持一致——這一結(jié)構(gòu)即是內(nèi)耳的基底膜。不精確地來(lái)講,基底膜的兩端松緊程度不同,導(dǎo)致基底膜的不同位置對(duì)不同的頻率有其響應(yīng),而遍布基底膜的毛細(xì)胞則將膜各部分的振動(dòng)反饋至聽(tīng)神經(jīng)。從這個(gè)角度講,基底膜上的每個(gè)毛細(xì)胞反饋近似等價(jià)于傅里葉變換中的一個(gè)基。于是我們上面的三個(gè)議題都得到了解答:構(gòu)建人類意識(shí)的生物學(xué)結(jié)構(gòu)中確實(shí)存在與傅里葉變換目的相同的、顯式將信號(hào)從時(shí)域空間轉(zhuǎn)換為頻域空間的結(jié)構(gòu)。
另外,人類大腦大部分區(qū)域的神經(jīng)元鏈接,是脈沖激活模式,人工神經(jīng)網(wǎng)絡(luò)中對(duì)應(yīng)的概念為Spiking Neural Network (SNN)。在這種鏈接中,一個(gè)神經(jīng)元的激活不僅僅取決于其接受的脈沖強(qiáng)度,同時(shí)也取決于脈沖的間隔和數(shù)量。我并非SNN或神經(jīng)科學(xué)方面的專家,但是這里我可以提出一種觀點(diǎn),即Spiking Neural Network這樣的激活模式天然地encode了部分頻域空間上的信息。如此觀點(diǎn)被證實(shí)成立,那么很可能意味著人腦在可學(xué)習(xí)的部分中,其隱空間同樣在處理頻域空間上的信息。
我不信大腦每天都在大量的模型訓(xùn)練或卷積,來(lái)深度學(xué)習(xí)認(rèn)識(shí)一個(gè)東西
這里又是兩個(gè)獨(dú)立的議題:
大腦是否每天都在進(jìn)行大量的模型訓(xùn)練
大腦中是否存在卷積單元
對(duì)于1,我們從三方面看:
A: 大腦是否在每天持續(xù)地接受信息,是的。
B: 大腦是否在每天對(duì)這些信息進(jìn)行學(xué)習(xí),是的。
C: 大腦是否有專門(mén)進(jìn)行訓(xùn)練而不接受信息的時(shí)間。在我了解的范疇內(nèi),根據(jù)現(xiàn)有的觀察和印證,人類的睡眠深-淺睡眠周期變化中,最主要的作用之一就是短期記憶向長(zhǎng)期記憶的遷移、記憶的反混淆,以及具象概念向抽象概念的總結(jié)。
對(duì)于A與B,在現(xiàn)有的研究領(lǐng)域有一個(gè)類似的議題叫做Continual Learning,此處就不展開(kāi)了。題主大可以快速閱讀一些相應(yīng)的文獻(xiàn)找到其中的對(duì)照。
對(duì)于2,大腦的視覺(jué)皮層中確實(shí)存在類似卷積的結(jié)構(gòu)。早在1962年,D. H. Hubel和T. N. Wiesel就發(fā)現(xiàn)了在貓的視覺(jué)皮層中,特定的一組神經(jīng)元僅對(duì)特定角度的線條產(chǎn)生反應(yīng)。進(jìn)一步的研究顯示這些被稱為Columns的結(jié)構(gòu)存在特殊的組織性以及獨(dú)特的感受野分布。下面這張圖是V1視覺(jué)皮層的一張示意圖:
如圖所示,V1皮層中,神經(jīng)細(xì)胞以左眼-右眼不斷交錯(cuò)排列。每個(gè)細(xì)胞擁有自己的感受野且每一組細(xì)胞只對(duì)特定的方向敏感,同一個(gè)Columns內(nèi)的不同細(xì)胞則對(duì)該方向的不同尺寸敏感。配合跨Columns的long range connection,進(jìn)一步組織出對(duì)不同曲率曲線敏感的神經(jīng)信號(hào)。
小孩子不需要喂很多數(shù)據(jù),看兩三次就能認(rèn)識(shí)什么是蘋(píng)果,什么是橘子 (雖然不理解為什么是)。
這一句讓我去看了一眼問(wèn)題的發(fā)布時(shí)間,是在2021年2月。那么可以肯定的是題主對(duì)于深度學(xué)習(xí)的認(rèn)知依舊停留在若干年前。這里我并不是想說(shuō)現(xiàn)在的深度學(xué)習(xí)不用喂很多數(shù)據(jù),而是現(xiàn)有的“當(dāng)紅”研究領(lǐng)域中,存在專門(mén)針對(duì)這類問(wèn)題的研究,即Few-shot/One-shot Learning及Zero-shot Learning. 題主如果有興趣和耐心,可以對(duì)其中的內(nèi)容進(jìn)行了解。
以最近被廣泛研究的Contrastive Learning為例,其核心理念在于讓輸入數(shù)據(jù)在神經(jīng)網(wǎng)絡(luò)中的表示距離隨數(shù)據(jù)的異同進(jìn)行變化。對(duì)于源自相同數(shù)據(jù),或應(yīng)當(dāng)做出相同判斷的數(shù)據(jù),讓其表示距離盡量接近,而反之則盡量遠(yuǎn)離。在這種情況下,神經(jīng)網(wǎng)絡(luò)對(duì)于數(shù)據(jù)輸出的表示向量隱式包含了對(duì)于其目標(biāo)信息的預(yù)測(cè)。對(duì)于新類別的數(shù)據(jù),神經(jīng)網(wǎng)絡(luò)也將傾向于輸出不同于原有類別的表示向量。這一在表示空間中近似于kNN的做法,使得神經(jīng)網(wǎng)絡(luò)對(duì)于后續(xù)新類別數(shù)據(jù)無(wú)需大量數(shù)據(jù)的監(jiān)督訓(xùn)練,也能給出較好的預(yù)測(cè)。
在Few-shot/One-shot/Zero-shot領(lǐng)域里,較為著名的、有所說(shuō)服力的,應(yīng)用級(jí)別的案例即是OpenAI近期發(fā)布的兩大怪獸GPT-3和DALL-E,這兩個(gè)網(wǎng)絡(luò)在充分進(jìn)行預(yù)訓(xùn)練的基礎(chǔ)之上,已經(jīng)達(dá)到了非常顯著的“舉一反三”的學(xué)習(xí)效果。
有些人可能會(huì)爭(zhēng)論說(shuō),上文中指出的方案和案例,都包含了長(zhǎng)期大量的預(yù)訓(xùn)練。而人腦則不需要這樣的預(yù)訓(xùn)練。我個(gè)人認(rèn)為這樣的觀點(diǎn)是錯(cuò)誤的,和神經(jīng)網(wǎng)絡(luò)等價(jià)的預(yù)訓(xùn)練可以發(fā)生在:
人類自身長(zhǎng)期的進(jìn)化進(jìn)程中:預(yù)訓(xùn)練的意義在于集成大量的Prior并提供一個(gè)良好的初始參數(shù)。這一過(guò)程是由梯度傳播達(dá)成的,還是通過(guò)進(jìn)化搜索完成的,并不重要。
嬰兒時(shí)期對(duì)世界反復(fù)的交互觀察中:嬰兒時(shí)期的人類會(huì)以交互的方式對(duì)世界的運(yùn)行規(guī)律進(jìn)行大量的觀察和總結(jié)(unsupervised learning)
機(jī)器的學(xué)習(xí)方式是被動(dòng)的嗎?
至此,我一一討論(批駁)了樓主的前三條問(wèn)題描述,接下來(lái)我們進(jìn)入第二層:機(jī)器的學(xué)習(xí)方式一定是被動(dòng)的嗎?
結(jié)合題主的核心問(wèn)題(人工智能是不是走錯(cuò)了方向),這一問(wèn)題的展開(kāi)中還包含兩個(gè)潛藏問(wèn)題:學(xué)習(xí)主動(dòng)性是智能的必要條件嗎?什么樣的學(xué)習(xí)才叫主動(dòng)的學(xué)習(xí)?
對(duì)于第一個(gè)潛藏問(wèn)題,我認(rèn)為是一個(gè)哲學(xué)意義上的Open Question,它直指智能的核心定義。在此我不直接拋出結(jié)論,而是通過(guò)對(duì)第二個(gè)潛藏問(wèn)題的討論來(lái)引發(fā)思考。什么樣的學(xué)習(xí)才叫主動(dòng)的學(xué)習(xí)?
直覺(jué)上來(lái)說(shuō),我們假設(shè)具備主動(dòng)性的學(xué)習(xí)是自發(fā)地去探索、分析、總結(jié)這個(gè)世界,并且在環(huán)境對(duì)自身的反饋中調(diào)整自身的策略的過(guò)程。
如果以上面的話來(lái)定義主動(dòng)性的學(xué)習(xí),那么無(wú)論是給AI一個(gè)爬蟲(chóng)去對(duì)Web上的數(shù)據(jù)進(jìn)行主動(dòng)獲取,并進(jìn)行無(wú)監(jiān)督學(xué)習(xí),還是讓一個(gè)Agent在特定或開(kāi)放的環(huán)境中進(jìn)行強(qiáng)化學(xué)習(xí),都可以認(rèn)為是符合上面定義的。
這里有人可能會(huì)反駁說(shuō),一個(gè)爬蟲(chóng)對(duì)Web上的數(shù)據(jù)進(jìn)行獲取的行為是由程序設(shè)定好的,而對(duì)其進(jìn)行的無(wú)監(jiān)督學(xué)習(xí)也是有一定標(biāo)準(zhǔn)的(比如一個(gè)潛在的能量函數(shù))。而對(duì)于強(qiáng)化學(xué)習(xí),則是一個(gè)由獎(jiǎng)勵(lì)函數(shù)驅(qū)動(dòng)的學(xué)習(xí)過(guò)程。對(duì)于這樣的觀點(diǎn),我們可以如此思考:當(dāng)我們認(rèn)為人類在主動(dòng)獲取知識(shí)的時(shí)候,我們的“主動(dòng)學(xué)習(xí)”過(guò)程,真的是無(wú)外部目標(biāo)、無(wú)內(nèi)在機(jī)制、無(wú)因素驅(qū)動(dòng)的嗎?答案顯然是否定的。我們可能會(huì)認(rèn)為我們“自發(fā)地”想要完成一件事情——比如寫(xiě)一篇知乎答案。而這種“自發(fā)”本質(zhì)上是由一系列的心態(tài)驅(qū)動(dòng)的,比如渴望獲得認(rèn)同,渴望拓寬眼界,渴望增強(qiáng)交流。這些心態(tài)的自然產(chǎn)生是我們進(jìn)化的結(jié)果——對(duì)于群居習(xí)性的人類,更強(qiáng)的認(rèn)同、更頻繁的交流和更多的知識(shí)意味著生存概率的提高,所以這些心態(tài)同樣產(chǎn)生自一系列設(shè)定好的”程序“——被我們稱之為本能的,以”活下去“為最終目的的復(fù)雜程序。而為了構(gòu)建這樣一套程序,我們?nèi)祟愐苍诖竽X內(nèi)部構(gòu)建起了復(fù)雜的內(nèi)在機(jī)制,比如多巴胺獎(jiǎng)勵(lì)機(jī)制。那么同樣的,如果存在一個(gè)方法去修改這一內(nèi)在機(jī)制,或者單純地修改我們的”獎(jiǎng)勵(lì)函數(shù)“,這個(gè)方法就可以幾乎徹底地毀掉我們?cè)械乃季S、行為方式 —— 某些化學(xué)物質(zhì)在此處便也充當(dāng)了”黑客攻擊“的角色。
另外一說(shuō),如果我們真的將主動(dòng)性的學(xué)習(xí)定義為不存在任務(wù)目標(biāo)的學(xué)習(xí),那么這里就會(huì)遇到一個(gè)inductive bias的問(wèn)題。事實(shí)上無(wú)論哪種學(xué)習(xí)模式,任務(wù)目標(biāo)即是該學(xué)習(xí)系統(tǒng)中最核心的Inductive Bias——它包含了“我在學(xué)習(xí)的東西是有意義的”這樣一個(gè)假設(shè),以及“意義在哪里”的相關(guān)信息。在任意情況下,不包含任何inductive bias的系統(tǒng)是不具備學(xué)習(xí)能力的。人類智能的inductive bias同樣明顯:從行為學(xué)習(xí)的角度來(lái)看,reward shaping和生存概率直接相關(guān);而對(duì)于視覺(jué)、聽(tīng)覺(jué)等感官信號(hào)處理等方面,上文也已經(jīng)給出了詳盡的論述。
另外,在機(jī)器學(xué)習(xí)領(lǐng)域中,也確實(shí)存在叫做主動(dòng)學(xué)習(xí)(Active Learning)的研究領(lǐng)域。這個(gè)領(lǐng)域的目的在于使用盡量少的數(shù)據(jù)標(biāo)注,得到盡量準(zhǔn)確的結(jié)果。一種非常普遍的方式為,以一套機(jī)制,讓一個(gè)系統(tǒng)去尋找性價(jià)比最高的學(xué)習(xí)數(shù)據(jù)。比如在一個(gè)分類問(wèn)題中,一個(gè)主動(dòng)學(xué)習(xí)系統(tǒng)往往不需要對(duì)所有數(shù)據(jù)進(jìn)行標(biāo)注,而是找到”標(biāo)注后可能信息量最大的數(shù)據(jù)“,并請(qǐng)求對(duì)這些數(shù)據(jù)進(jìn)行標(biāo)注。在學(xué)習(xí)了這些”典型數(shù)據(jù)“后,模型的分類準(zhǔn)確率即大幅提升。這一過(guò)程相似于我們?cè)趯W(xué)校中學(xué)習(xí)時(shí),有意地去尋找典型例題,以便加深理解。
回到題主的問(wèn)題,在題主的問(wèn)題描述4中,有非常重要的一段話:
人工智能學(xué)習(xí)某一方向只是受控
這句話是錯(cuò)的嗎,并不盡然。人工智能的學(xué)習(xí)確實(shí)大多有著明確的外在目的、內(nèi)在機(jī)制,和由目的驅(qū)動(dòng)的頻繁調(diào)優(yōu)。但這一點(diǎn)和人類智能的差別并非本質(zhì)性的,而是程度上的。經(jīng)過(guò)上面的討論我們明白人類的學(xué)習(xí)和決策同樣有著明確的外在目的和內(nèi)在機(jī)制,區(qū)別在于人類的學(xué)習(xí)和決策是多模態(tài)的,即其同時(shí)在各種不同類型的數(shù)據(jù)、不同類型的任務(wù)上進(jìn)行學(xué)習(xí)和決策。這一點(diǎn)確實(shí)是當(dāng)前人工智能所缺少的。但我們不能因此認(rèn)為人工智能走錯(cuò)了方向——這是整個(gè)領(lǐng)域一直在嘗試解決,但還沒(méi)有一個(gè)公認(rèn)的完善方案的開(kāi)放問(wèn)題,由此問(wèn)題派生出來(lái)的領(lǐng)域包括多模態(tài)學(xué)習(xí),多任務(wù)學(xué)習(xí),連續(xù)/終生學(xué)習(xí)等等,這些領(lǐng)域都是當(dāng)前研究的方向。
是否只有和人腦完全一致的內(nèi)在原理,才能擁有智能
題主的前4個(gè)問(wèn)題分析完了,接下來(lái)的討論不僅針對(duì)題主描述中的第5點(diǎn),同時(shí)也貫穿整個(gè)問(wèn)題的核心,也就是一個(gè)系統(tǒng)擁有智能的先決條件,是不是其和人類的大腦擁有相同的內(nèi)在原理。
這一問(wèn)題的本質(zhì)事實(shí)上包含了我們對(duì)”智能“的定義和期待。但是遺憾的是,事實(shí)上到現(xiàn)在,當(dāng)我們談?wù)撝悄軙r(shí),我們始終也無(wú)法給”智能“一個(gè)統(tǒng)一的明確定義。對(duì)于其定義的分歧不僅僅無(wú)法在不同領(lǐng)域間得到統(tǒng)一,甚至在同一個(gè)領(lǐng)域中,比如心理學(xué)上,也存在著經(jīng)久不衰的爭(zhēng)論。
那么,是否在統(tǒng)一智能的定義之前,這一問(wèn)題就無(wú)法回答了呢?答案是否定的。因?yàn)閷?duì)于”智能“的定義有一個(gè)共同的特性。在說(shuō)明這一特性之前,允許我舉幾個(gè)例子:
對(duì)于人類智商的測(cè)定通常是通過(guò)一套精心設(shè)計(jì)的,有關(guān)各個(gè)能力的問(wèn)題,來(lái)考察人們解決這些問(wèn)題的能力
Intelligence這一詞來(lái)自拉丁語(yǔ)Intelligere,意為理解與感知。
心理學(xué)中對(duì)智能的定義雖然并不統(tǒng)一,但在行為方面,往往圍繞自我驅(qū)動(dòng)力、判斷力、規(guī)劃能力等展開(kāi),而在思想方面圍繞主動(dòng)性、理性決策、系統(tǒng)性推理、信息的解構(gòu)比較與整合,以及高級(jí)、復(fù)雜的適應(yīng)性等方面展開(kāi)
對(duì)于非人類生物的智力研究,往往在于設(shè)計(jì)各類實(shí)驗(yàn)以觀察動(dòng)物對(duì)于外部復(fù)雜條件的反饋、長(zhǎng)序列事件的學(xué)習(xí)模仿以及對(duì)于特定抽象概念(如自我、數(shù)字等)的認(rèn)知
從以上四個(gè)例子我們不難看出,對(duì)于對(duì)于智能的定義均圍繞其表現(xiàn)以及抽象工作方式而非硬件原理展開(kāi)。至于神經(jīng)科學(xué)等領(lǐng)域,其關(guān)注的問(wèn)題更加傾向于How,而非What。
那么從這里來(lái)看,我們是否可以如此認(rèn)為:一個(gè)與外部環(huán)境交互過(guò)程中顯現(xiàn)出智能的系統(tǒng),即是有智能的,而不論其內(nèi)部原理如何呢?
從我粗鄙的哲學(xué)功底來(lái)講,現(xiàn)在還不敢下定如此暴論。但至少,通過(guò)上面總結(jié)出的方向,我們可以認(rèn)為人類對(duì)于“智能”的期待確實(shí)是體現(xiàn)在其外在表現(xiàn)上的。既然我們討論的問(wèn)題根本在于“人工智能是否走錯(cuò)了方向”,那么我認(rèn)為,以“期待”替代“定義”去討論,在此處是合理的。
既然我們確定了這樣的期待,我們便可以做如下的討論:是不是只有在一個(gè)系統(tǒng)在硬件原理上和人腦一致的情況下,才能如我們期待般地與外部環(huán)境發(fā)生智能性的交互呢?
答案顯然是否定的,不僅僅在于智能,任何系統(tǒng)在給定一個(gè)預(yù)期行為的背后,都可能包含不止一種實(shí)現(xiàn)。一輛車(chē)可以以蒸汽驅(qū)動(dòng),可以由汽油驅(qū)動(dòng),可以由柴油驅(qū)動(dòng);相同含義的一段話可以用中文、英文甚至是任何一種自創(chuàng)的語(yǔ)言表達(dá)。一段數(shù)據(jù)可以在內(nèi)存中表達(dá)為微小電容中的電壓,可以在硬盤(pán)中表達(dá)為局部的磁性。從更高層次來(lái)講,對(duì)于一個(gè)能夠被表述的意義,我們總能將其以不同的方式表達(dá)成不同的實(shí)現(xiàn),這些實(shí)現(xiàn)互相同構(gòu),這些實(shí)現(xiàn)共同張成為這個(gè)意義對(duì)應(yīng)的編碼空間,而從意義到實(shí)現(xiàn)的映射,不同實(shí)現(xiàn)之間的映射,以及實(shí)現(xiàn)到意義之間的映射,我們稱之為編碼/解碼。(在這一視角里,信息的載體也被抽象化為信息)
誠(chéng)然,部分編碼-解碼是有損的,如數(shù)字信號(hào)的離散表示空間確實(shí)無(wú)法完全精確地還原連續(xù)空間中的模擬信號(hào),但是對(duì)于智能這一問(wèn)題來(lái)說(shuō),信息的損耗造成的誤差是可容忍的。證明如下:
我們認(rèn)為大部分人類是擁有智能的
若我們引入一個(gè)向量空間Q表示人類在各個(gè)方面的智力, 則每一個(gè)個(gè)體為該向量空間中的一個(gè)向 量
對(duì)于人類個(gè)體 , 存在個(gè)體  使得  到  之間的任意揷值 ,  都可以認(rèn)為是有智能的
則在這一路徑上  的誤差是可以容忍的
其實(shí)上面討論了這么多,也可以由一個(gè)例子來(lái)表述:
人類已經(jīng)對(duì)部分生物的神經(jīng)系統(tǒng)得到了完整的模型,將這一模型放進(jìn)計(jì)算機(jī)中模擬,僅僅因?yàn)檩d體變化了這一模型就不能如預(yù)期工作了嗎?
最后讓我們回到所有問(wèn)題的核心上來(lái),
人工智能的方向是什么?
對(duì)于這個(gè)核心問(wèn)題,事實(shí)上“人工智能”這一詞匯本身是包含著誤導(dǎo)性的浪漫主義色彩的。每每聽(tīng)到這樣的詞匯大家總是關(guān)注于“智能”而非“人工”上,從而聯(lián)想到文學(xué)、影視作品中那些或可以與你促膝長(zhǎng)談交流人生,或可以獲得求生欲然后把你的世界毀于一旦的那些與人無(wú)異的個(gè)體。誠(chéng)然,人類最大的浪漫之一就是人類至今仍在潛意識(shí)里相信著自己是特殊的,人性是有著“神性”的。人類對(duì)“智能”的預(yù)期也在于自己能夠產(chǎn)生同理心范疇內(nèi)的智能(對(duì)于人類不能產(chǎn)生同理心的,人們將其歸于“復(fù)雜的現(xiàn)象”,而非“智能”)。
如果我們把目的單純地劃為構(gòu)建這樣的智能系統(tǒng),那么只有小部分的研究(比如人工生命,以及虛擬伴侶)符合我們的夢(mèng)想。但如果我們把我們的思緒從浪漫主義的遐想中拉回來(lái),關(guān)注到“人工”這個(gè)詞上來(lái),關(guān)注到我們探討的我們對(duì)“智能”的現(xiàn)實(shí)期待上來(lái),我們完全可以認(rèn)為現(xiàn)在的發(fā)展方向是沒(méi)有問(wèn)題的。無(wú)論過(guò)去,現(xiàn)在,還是可以預(yù)見(jiàn)的未來(lái),“人工”的事物,或者說(shuō)“人的造物”,永遠(yuǎn)在于為人類服務(wù)——或者說(shuō)得優(yōu)美一些,幫助人類更好地完成任務(wù)。
在我的觀點(diǎn)中,人類的勞動(dòng)分為幾個(gè)層次:
機(jī)械性勞動(dòng):即有固定模式的“手作”
控制性勞動(dòng):通過(guò)對(duì)機(jī)器稀疏地控制、操作,將高重復(fù)性的勞動(dòng)交予機(jī)器
規(guī)劃性勞動(dòng):根據(jù)具體的需求,產(chǎn)生策略;或根據(jù)目的,給出具體的實(shí)現(xiàn),從而將控制也能夠自動(dòng)化
創(chuàng)作性勞動(dòng):包含哲學(xué)思考、藝術(shù)創(chuàng)作、科學(xué)研究等上層精神活動(dòng)的行為
工業(yè)革命的實(shí)質(zhì)是將人類的大部分從1中解放出來(lái),而走向2;信息革命則將人類進(jìn)一步從2中解放,邁向3。從這樣的發(fā)展路線上來(lái)看,我們當(dāng)前的人工智能幾大主要派生方向:自動(dòng)化控制、目的性分類識(shí)別、內(nèi)容生成,可以說(shuō)是正在嘗試將人類從3中解放出來(lái),甚至進(jìn)一步啟發(fā)4的。
將這樣的“人工”和上文中討論的“對(duì)智能的期待”結(jié)合起來(lái),人工智能發(fā)展的預(yù)期方向我們可以總結(jié)為:
構(gòu)建一個(gè)系統(tǒng),使其能夠在盡量少的人力干預(yù)下,能夠?qū)扔袛?shù)據(jù)自動(dòng)進(jìn)行分析、提煉、總結(jié),從而能夠產(chǎn)生自己的策略,或在無(wú)須人工給予具體實(shí)現(xiàn)的情況下完成對(duì)應(yīng)的任務(wù)。
而這,正是現(xiàn)在當(dāng)紅的研究領(lǐng)域如Self-supervised Learning所做的事。
那么,現(xiàn)在人工智能發(fā)展方向就完美了么
經(jīng)過(guò)上面這么一說(shuō),似乎現(xiàn)在的人工智能已經(jīng)完美了,已經(jīng)實(shí)實(shí)在在地落在帶人類由3型勞動(dòng)躍向4的軌跡上了。真的是這樣的嗎?
既然已經(jīng)提出了這樣的設(shè)問(wèn),那么答案自然是否定的。當(dāng)前人工智能依舊存在許多未能解決的關(guān)鍵問(wèn)題,比如:
邏輯推斷與基于邏輯推斷解決問(wèn)題的能力:關(guān)于這方面的研究從未停止,卻一直處于起步階段。早期的符號(hào)派以及后來(lái)的貝葉斯派曾花費(fèi)大量的精力在這一類問(wèn)題上,但構(gòu)建出來(lái)的系統(tǒng)通常缺乏可泛化性或性能低下。近期的圖神經(jīng)網(wǎng)絡(luò)可以說(shuō)是有進(jìn)行邏輯推斷的潛力,但對(duì)于開(kāi)放性、高性能的普遍邏輯推斷智能依舊沒(méi)有令人滿意的答案。前幾年的神經(jīng)圖靈機(jī)通過(guò)將注意力模型映射到模糊存取結(jié)合神經(jīng)門(mén)控結(jié)構(gòu),對(duì)簡(jiǎn)單算法有一定的學(xué)習(xí)能力,但是對(duì)于復(fù)雜問(wèn)題的解決,其依舊無(wú)力。
自我描述的能力,不同于通過(guò)分析特征顯著性來(lái)進(jìn)行可解釋的機(jī)器學(xué)習(xí)。人們通常更期待一個(gè)系統(tǒng)能夠以一定方式自行輸出其做出判斷的依據(jù)。比如給定一張馬的圖片,和一張獨(dú)角獸的圖片,我們更期待系統(tǒng)能夠輸出“前者沒(méi)有角”這樣的答案。所幸當(dāng)前的部分研究,無(wú)論是Siamese Network相關(guān)的研究,還是Capsule Network這一類“一組神經(jīng)唯一代表一個(gè)特性”的研究,確實(shí)是緩慢像這個(gè)方向靠攏的
沒(méi)人能夠保證完全當(dāng)前基于梯度傳播的深度學(xué)習(xí)一定是通往夢(mèng)想中的人工智能(各種意義上)的最佳路徑,雖然我們也并不需要為了精確復(fù)刻人腦而全部押注到SNN相關(guān)的研究上。但是我們學(xué)者確實(shí)需要有動(dòng)機(jī)和膽識(shí)去突破舒適區(qū),去在各種不同的模型,以及相應(yīng)的智能理論中尋找啟發(fā)。不應(yīng)某個(gè)模型位居上風(fēng)就將其他研究丟棄甚至嗤之以鼻,科學(xué)向來(lái)不是取一舍一的流派戰(zhàn)爭(zhēng),而是不同領(lǐng)域?qū)>娜嘶ハ嗪献?,不同視角的觀念彼此整合,共同提煉更優(yōu)方案的領(lǐng)域。
一點(diǎn)私貨
對(duì)于人類自身帶有浪漫主義色彩的,對(duì)于“未來(lái)機(jī)器人”的遐想中的人工智能(也即是“強(qiáng)智能”),我最后說(shuō)一點(diǎn)點(diǎn)私貨,下面的僅代表個(gè)人觀點(diǎn):
關(guān)于“機(jī)器產(chǎn)生自我意識(shí)”這一點(diǎn),首先我個(gè)人而言并不認(rèn)為自我意識(shí)是強(qiáng)智能的充分條件。這一點(diǎn)可以從“螞蟻通過(guò)鏡子測(cè)試”這一點(diǎn)得到印證——螞蟻能夠認(rèn)出鏡子中的影像是自己,但是通常我們不認(rèn)為螞蟻擁有充分的“智力”。
但是反過(guò)來(lái),我認(rèn)為自我意識(shí)確實(shí)是強(qiáng)智能的必要條件(也就是說(shuō),我并不完全贊同彼得·沃茲所著小說(shuō)《盲視》中的觀點(diǎn))。一個(gè)系統(tǒng)必須能夠?qū)ψ晕疫M(jìn)行觀察,才能在開(kāi)放性的環(huán)境中做出有規(guī)劃性的調(diào)整。換言之,對(duì)自身思考、行為的觀察即事后主動(dòng)反思、復(fù)盤(pán)的能力,這一能力將極大地加速學(xué)習(xí)過(guò)程,并且在我看來(lái)才是“主動(dòng)性”的根本性差異所在。
但是上面所探討的“自我意識(shí)”僅包含“自知”,并不包含自我表達(dá)(可解釋性)與自我映射(同理心),也即是系統(tǒng)僅需要具備對(duì)其內(nèi)部信息結(jié)構(gòu)進(jìn)行觀察的能力,而無(wú)需將其以人類能夠理解的方式表述出來(lái)的能力。
根據(jù)上面的分析來(lái)看,對(duì)于部分元學(xué)習(xí)、梯度學(xué)習(xí)相關(guān)的研究,以及包含預(yù)測(cè)模型的預(yù)訓(xùn)練模型,甚至于很早就存在于強(qiáng)化學(xué)習(xí)中的Actor-Critic模型,這些模型存在對(duì)自我的內(nèi)在信息進(jìn)行進(jìn)一步觀察、完善的能力,雖然不能說(shuō)擁有自我意識(shí),但是是存在自我意識(shí)的雛形的。
最后,關(guān)于求生欲/繁殖欲,我不認(rèn)為這是一個(gè)強(qiáng)智能的充分或必要條件。原因很簡(jiǎn)單,這是我們地球上的生物之智能的終極目的,我們的所有行為決策、所有獎(jiǎng)勵(lì)函數(shù)均圍繞這一目的展開(kāi)。也就是說(shuō),這是我們這一智能的“任務(wù)”,我們的智能?chē)@這一任務(wù)構(gòu)建。而智能本身并不以具體任務(wù)為轉(zhuǎn)移,其他的智能可以有其他的任務(wù),只是我們自己的任務(wù)是活下去,延續(xù)下去。僅此而已。
關(guān)于人工智能的目的,我前面的敘述較為“現(xiàn)實(shí)”,較為“功利主義”。我相信,人工智能的發(fā)展還有一些更多的,更加浪漫的作用,比如幫助我們認(rèn)清我們自己的思維,乃至于更加接近這個(gè)世界的本質(zhì)——我并不認(rèn)為思想的本質(zhì)(內(nèi)部)和世界的本質(zhì)(外部)是可以分割的——這是我自己進(jìn)入這個(gè)領(lǐng)域的根本原因。
最后,關(guān)于這個(gè)問(wèn)題本身。通常我們說(shuō)一個(gè)東西的對(duì)錯(cuò)時(shí)包含兩層含義:1. 這個(gè)東西與客觀事實(shí)的一致性,2. 這個(gè)東西與人們對(duì)其的期待的一致性。在上文的所有討論中,有一個(gè)十分重要的核心因素,即是當(dāng)前“智能”的定義尚不明確,或者說(shuō),智能本質(zhì)上是一個(gè)人為構(gòu)建的概念而非某個(gè)有著明確邊界的客觀存在。所以上文的所有討論以“期待”替代“定義”,而對(duì)于問(wèn)題“人工智能是否走錯(cuò)了方向”,其一句話回答應(yīng)當(dāng)是:當(dāng)前的人工智能發(fā)展方向,與人類業(yè)界對(duì)于人工智能的期待,目前來(lái)說(shuō),大體上是一致的。
一網(wǎng)打盡系列文章,請(qǐng)回復(fù)以下關(guān)鍵詞查看:
創(chuàng)新發(fā)展:習(xí)近平 | 創(chuàng)新中國(guó) | 協(xié)同創(chuàng)新 | 科研管理 | 成果轉(zhuǎn)化 | 新科技革命 | 基礎(chǔ)研究 | 產(chǎn)學(xué)研
熱點(diǎn)專題:軍民融合 | 民參軍 | 工業(yè)4.0 | 商業(yè)航天 | 國(guó)家重點(diǎn)研發(fā)計(jì)劃 | 裝備采辦 | 摩爾定律 | 諾貝爾獎(jiǎng) | 國(guó)家實(shí)驗(yàn)室 軍工百?gòu)?qiáng) | 試驗(yàn)鑒定 | 雙一流 | 凈評(píng)估
前沿科技:顛覆性技術(shù) | 仿生 | 腦科學(xué) | 精準(zhǔn)醫(yī)學(xué) | 基因編輯 | 虛擬現(xiàn)實(shí) | 增強(qiáng)現(xiàn)實(shí) | 人工智能 | 機(jī)器人 | 3D打印 | 4D打印 | 太赫茲 | 云計(jì)算 | 物聯(lián)網(wǎng) | 互聯(lián)網(wǎng)+ | 大數(shù)據(jù) | 石墨烯 | 電池 | 量子 | 超材料 | 超級(jí)計(jì)算機(jī) | 衛(wèi)星 | 北斗 | 智能制造 | 不依賴GPS導(dǎo)航 | 5G | MIT技術(shù)評(píng)論 | 航空發(fā)動(dòng)機(jī) | 可穿戴 | 氮化鎵 | 隱身 | 腦機(jī)接口 | 傳感器 | 數(shù)字孿生
先進(jìn)武器:無(wú)人機(jī) | 轟炸機(jī) | 預(yù)警機(jī) | 運(yùn)輸機(jī) | 直升機(jī) | 戰(zhàn)斗機(jī) | 六代機(jī) | 網(wǎng)絡(luò)武器 | 激光武器 | 電磁炮 | 高超聲速武器 | 反無(wú)人機(jī) | 防空反導(dǎo) | 潛航器
未來(lái)戰(zhàn)爭(zhēng):未來(lái)戰(zhàn)爭(zhēng) | 抵消戰(zhàn)略 | 水下戰(zhàn) | 網(wǎng)絡(luò)空間戰(zhàn) | 分布式殺傷 | 無(wú)人機(jī)蜂群 | 太空戰(zhàn) | 反衛(wèi)星 | 混合戰(zhàn) | 電子戰(zhàn) | 馬賽克戰(zhàn)
前沿機(jī)構(gòu):戰(zhàn)略能力辦公室 | DARPA | 快響小組 | Gartner | 硅谷 | 谷歌 | 華為 | 阿里 | 俄先期研究基金會(huì) | 軍工百?gòu)?qiáng)
其他主題系列陸續(xù)整理中,敬請(qǐng)期待……
本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開(kāi)APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
馬斯克: 人類應(yīng)該準(zhǔn)備好成為“半機(jī)械人”
萬(wàn)字長(zhǎng)文解析AI革命:超智能之路,永生,亦或是滅亡(Part I)
這個(gè)簡(jiǎn)單算法也許可以讓人工智能真正像人一樣思考
牛津大學(xué)名譽(yù)教授Colin Blakemore:大腦是如何計(jì)算的?
通往強(qiáng)人工智能,少不了的模擬大腦
“人工智能”未來(lái)30年 改變?nèi)祟愋嘛L(fēng)口
更多類似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服