中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
人工智能讀書筆記一
我準(zhǔn)備寫一系列關(guān)于人工智能AI,Artificial Intelligence)的讀書筆記,源自各種資料的拼湊和少量腦補(bǔ),不保證所有主張的正確性,請自行斟酌。第一篇是導(dǎo)讀,從阿法狗到人工智能,AI的發(fā)展歷史和基本三要素,深度學(xué)習(xí)的概念,最后是AI芯片的定義與分類。

阿法狗與人工智能


2016年3月9日至15日,AlphaGo在首爾進(jìn)行的五番棋比賽中以總比分4比1戰(zhàn)勝李世石,人工智能在星光熠耀的舞臺(tái)上首次登場。至今還記得聽聞李世石落敗后,我作為一個(gè)圍棋蘊(yùn)含傳統(tǒng)文化與哲學(xué)精神的愛好者與信眾,世界觀破碎的聲音。當(dāng)時(shí)的反應(yīng)是絕望與恐慌,如同終結(jié)者的時(shí)代即將到來;直到獨(dú)自在一片沉寂奧森奔跑了32公里,才慢慢找回真實(shí)的、自我的感覺。
那么,什么是人工智能呢?人類特有的形聲聞味觸五感,給予了人感受萬物萬事的能力,計(jì)算機(jī)能實(shí)現(xiàn)對(duì)人的視覺、聽覺、嗅覺、味覺、觸覺的模擬感知、思維決策和行為控制么?我認(rèn)為,就算人工智能系統(tǒng)通過各種技術(shù)、模擬具備了五感,也很難具有真正意義上的意識(shí),即靈魂,它們永遠(yuǎn)不會(huì)有私人的、像人類一樣的內(nèi)心思想。

AI機(jī)器人的外觀可以充滿智慧與流線感。

也可以更現(xiàn)實(shí)、更具有生活氣息。

或者光怪陸離,盡顯金屬范。
拋開哲學(xué),簡單點(diǎn),從科學(xué)和工程角度去理解,人工智能是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué),它是計(jì)算機(jī)科學(xué)的一個(gè)分支。該領(lǐng)域的研究包括機(jī)器人、語言識(shí)別、圖像識(shí)別、自然語言處理和專家系統(tǒng)等。

AlphaGo 由 Google DeepMind 團(tuán)隊(duì)開發(fā),其程序綜合了神經(jīng)網(wǎng)絡(luò)和蒙特卡羅樹搜索,具有自我學(xué)習(xí)能力。初代AlphaGo是通過搜集大量圍棋對(duì)弈數(shù)據(jù)和名人棋譜,學(xué)習(xí)并模仿人類下棋,在達(dá)到一定熟練程度后,通過自我對(duì)弈來提升棋力。它使用了巨大的計(jì)算資源,硬件在AlphaGo的性能表現(xiàn)上扮演了關(guān)鍵角色。
AlphaGo有多種配置,不同配置對(duì)它的性能有巨大影響,最低配置使用了48個(gè)CPU和1個(gè)GPU;最高配置是分布式版本的AlphaGo,根據(jù)DeepMind員工發(fā)表在2016年1月Nature期刊的論文,分布式版本(AlphaGo Distributed)使用了1202個(gè)CPU和176個(gè)GPU,同時(shí)可以有40個(gè)搜素線程。
擊敗李世石的AlphaGo Lee 版本,則是由上述分布式版本訓(xùn)練,4 個(gè)TPU v1推理。后來升級(jí)的 AlphaGo Master 版以及自我學(xué)習(xí)的 AlphaGo Zero 版 ,則是由 TPU v2  Pod 訓(xùn)練。

人工智能的三次浪潮


1956年夏季,以麥卡賽、明斯基、羅切斯特和申農(nóng)等為首的一批有遠(yuǎn)見卓識(shí)的年輕科學(xué)家在一起聚會(huì),共同研究和探討用機(jī)器模擬智能的一系列有關(guān)問題,并首次提出了人工智能這一術(shù)語。因此1956年被稱為AI元年,從那以后,人工智能研究幾起幾落,迄今已經(jīng)是第三波浪潮了。
簡要回顧人工智能的發(fā)展歷史,我們會(huì)發(fā)現(xiàn)它主要由3個(gè)方面相互交織發(fā)展:符號(hào)主義、連接主義和行為主義。由這3個(gè)方面構(gòu)成的人工智能設(shè)計(jì)模型如下圖。

第一波浪潮是20世紀(jì)50年代到60年代,符號(hào)主義,其核心是用數(shù)學(xué)和物理學(xué)中的邏輯符號(hào)來表達(dá)思維的形成,通過大量的if-then規(guī)則定義,產(chǎn)生像人一樣的智能,這是一個(gè)自上而下的過程,包括專家系統(tǒng)、知識(shí)工程等。
第二波浪潮是20世紀(jì)80年代到90年代,連接主義,其核心是神經(jīng)元網(wǎng)絡(luò)與深度學(xué)習(xí),主張智能來自神經(jīng)元之間的連接,它讓計(jì)算機(jī)模擬人類大腦中的神經(jīng)網(wǎng)絡(luò)及其連接機(jī)制,把人的神經(jīng)系統(tǒng)的模型用計(jì)算的方式呈現(xiàn),用它來仿造智能。這是一個(gè)自下而上的過程,包括人工神經(jīng)網(wǎng)絡(luò)等。
第三波浪潮就是2006年至今,行為主義,指的是基于感知行為的控制系統(tǒng),使每個(gè)基本單元實(shí)現(xiàn)自我優(yōu)化和適應(yīng),這也是一個(gè)自下而上的過程,其核心是技術(shù)的融合,軟硬件的融合。把一些技術(shù)、神經(jīng)元網(wǎng)絡(luò)和統(tǒng)計(jì)的方法結(jié)合在一起,深度學(xué)習(xí)+大規(guī)模計(jì)算+大數(shù)據(jù)=人工智能。

人工智能最初采用的方法是專家編制規(guī)則,教機(jī)器人認(rèn)字、語音識(shí)別,但是人們沒法總結(jié)提煉出人類視聽功能中的規(guī)律,因此在機(jī)器學(xué)習(xí)的轉(zhuǎn)化上效果并不好,結(jié)果事與愿違,人工智能也在殘酷的現(xiàn)實(shí)中走向下坡。
由于人為指導(dǎo)這條路行不通,人們開始另辟蹊徑,把目光投向了基于大量數(shù)據(jù)的統(tǒng)計(jì)學(xué)方法,于是人工智能在人臉識(shí)別等一些較簡單的問題上取得了重大進(jìn)展,在語音識(shí)別上也實(shí)現(xiàn)了基本可用,初見成效。然而基于大數(shù)據(jù)的統(tǒng)計(jì)學(xué)方法很快遇到了瓶頸,因?yàn)閱渭円揽繑?shù)據(jù)積累并不能無限地提高準(zhǔn)確率,從「基本可用」「實(shí)用」之間出現(xiàn)了一道難以逾越的鴻溝,十幾年都沒能跨過,人工智能再次沒落。
直到2006年,多倫多大學(xué) Geoffrey Hinton 教授在《科學(xué)》上發(fā)表一篇關(guān)于深度學(xué)習(xí)的文章,人們又重新看到了人工智能的希望。
隨著GPU(圖形處理器)的廣泛使用,計(jì)算機(jī)的并行處理速度大幅加快、成本更低、功能更強(qiáng)大,實(shí)際存儲(chǔ)容量無限拓展,可以生成大規(guī)模的數(shù)據(jù),包括圖片、文本和地圖數(shù)據(jù)信息等,人工智能迎來了新的生機(jī)。

人工智能三要素


人工智能三要素:算法、算力和大數(shù)據(jù),缺一不可,都是人工智能取得如此成就的必備條件。按重要程度來說:
第一是數(shù)據(jù)。人類要獲取一定的技能都必須經(jīng)過不斷地訓(xùn)練,且有熟能生巧之說。AI也是如此,根基是訓(xùn)練,只有經(jīng)過大量的訓(xùn)練,神經(jīng)網(wǎng)絡(luò)才能總結(jié)出規(guī)律,應(yīng)用到新的樣本上。只有大量的數(shù)據(jù),而且能覆蓋各種可能的場景,才可以得到一個(gè)表現(xiàn)良好的模型,看起來更智能。
第二是算力。有了數(shù)據(jù)之后,需要進(jìn)行訓(xùn)練,不斷地訓(xùn)練。深度學(xué)習(xí)中有三個(gè)概念叫Epoch, Batch, Iteration,只把訓(xùn)練集從頭到尾訓(xùn)練一遍網(wǎng)絡(luò)是學(xué)不好的,需要把訓(xùn)練集翻過來、調(diào)過去,訓(xùn)練很多輪。訓(xùn)練和推理需要強(qiáng)大算力的支撐。
第三是算法,神經(jīng)網(wǎng)絡(luò)算法和深度學(xué)習(xí)是目前最主流的人工智能算法。某種程度上來說算法是獲取成本最低的,現(xiàn)在有很多paper,開源的網(wǎng)絡(luò)代碼,各種AutoML自動(dòng)化手段,創(chuàng)業(yè)公司比較容易切入;算力需要芯片支撐,芯片行業(yè)是一個(gè)贏者通吃的市場,有資金、技術(shù)和人才三大壁壘,更需要一個(gè)行業(yè)的生態(tài)鏈來孕育成長。

深度學(xué)習(xí)


自2006年以來,機(jī)器學(xué)習(xí)領(lǐng)域,取得了突破性的進(jìn)展。這個(gè)算法就是深度學(xué)習(xí)(Deep Learning)。深度學(xué)習(xí)是一個(gè)復(fù)雜的機(jī)器學(xué)習(xí)算法,在語音和圖像識(shí)別方面取得的效果,遠(yuǎn)遠(yuǎn)超過先前相關(guān)技術(shù)。

深度學(xué)習(xí)算法分訓(xùn)練推理兩個(gè)過程。簡單來講,人工智能需要通過以大數(shù)據(jù)為基礎(chǔ),通過訓(xùn)練得到各種參數(shù)(也就是模型),然后把模型傳遞給部分,得到最終結(jié)果。
神經(jīng)網(wǎng)絡(luò)分為前向計(jì)算(包括矩陣相乘、卷積、循環(huán)層)和后向更新(主要是梯度運(yùn)算)兩類,「訓(xùn)練」是兩者兼而有之,「推理」主要是「前向計(jì)算」,都包含大量并行運(yùn)算。一般來說,「訓(xùn)練+推理」在云端進(jìn)行,終端人工智能硬件只負(fù)責(zé)「推理」。

人工智能芯片


個(gè)人淺見,現(xiàn)階段的人工智能行業(yè)與十年前盛極一時(shí)的游戲行業(yè),本質(zhì)是一樣的,都是計(jì)算機(jī)基于數(shù)據(jù),對(duì)圖像與聲音的計(jì)算與展示。
這其中,視覺信息的結(jié)構(gòu)化是人工智能最重要的方面,而數(shù)字圖像處理是視覺信息結(jié)構(gòu)化的基本技術(shù)。子曰:「工欲善其事,必先利其器」,作為一個(gè)AI芯片行業(yè)的產(chǎn)品與方案人,還是先從人工智能芯片開始講吧。有句話說得好:芯片承載算法,是競爭的制高點(diǎn)。

由于AI所需的深度學(xué)習(xí)需要很高的并行計(jì)算、浮點(diǎn)計(jì)算以及矩陣運(yùn)算能力,基于CPU的傳統(tǒng)計(jì)算架構(gòu)無法充分滿足人工智能高性能并行計(jì)算(HPC)的需求,因此需要發(fā)展適合AI架構(gòu)的專屬芯片。目前處理器芯片面向人工智能硬件優(yōu)化升級(jí)有兩種發(fā)展路徑:
1)延續(xù)傳統(tǒng)計(jì)算架構(gòu),加速硬件計(jì)算能力:以GPU、FPGA、ASIC等專屬芯片為輔,配合CPU的控制,專門進(jìn)行AI相關(guān)的各種運(yùn)算。

通用芯片GPU:GPU由于更適合執(zhí)行復(fù)雜的數(shù)學(xué)和幾何計(jì)算(尤其是并行運(yùn)算),剛好與包含大量并行運(yùn)算的 AI 深度學(xué)習(xí)算法相匹配,成為人工智能硬件首選,在云端和終端各種場景均率先落地。目前在云端作為AI 訓(xùn)練的主力芯片;在終端的安防、汽車等領(lǐng)域,GPU也率先落地,是目前應(yīng)用范圍最廣、靈活度最高的AI硬件。
半定制化芯片F(xiàn)PGA:算法未定型前的最佳選擇。FPGA(Field-Programmable Gate Array,現(xiàn)場可編程門陣列)是一種用戶可根據(jù)自身需求進(jìn)行重復(fù)編程的萬能芯片。編程完畢后功能相當(dāng)于ASIC(專用集成電路),具備效率高、功耗低的特點(diǎn),但同時(shí)由于要保證編程的靈活性,電路上會(huì)有大量冗余,因此成本上不能像ASIC做到最優(yōu),并且工作頻率不能太高(一般主頻低于500MHz)。FPGA相比GPU具有低功耗優(yōu)勢,同時(shí)相比ASIC具有開發(fā)周期快,更加靈活編程等特點(diǎn),是效率和靈活性的較好折衷,在算法未定型之前具較大優(yōu)勢。在現(xiàn)階段云端數(shù)據(jù)中心業(yè)務(wù)中,F(xiàn)PGA以其靈活性和可深度優(yōu)化的特點(diǎn),有望繼GPU之后在該市場爆發(fā);在目前的終端智能安防領(lǐng)域,目前也有廠商采用FPGA方案實(shí)現(xiàn)AI硬件加速。
全定制化芯片ASIC:Application Specific Integrated Circuit,專用集成電路,指專門為AI應(yīng)用設(shè)計(jì)、專屬架構(gòu)的處理器芯片。近年來涌現(xiàn)的類似TPU、NPU、VPU、BPU等令人眼花繚亂的各種芯片,本質(zhì)上都屬于ASIC。無論是從性能、面積、功耗等各方面,AISC都優(yōu)于GPU和FPGA,但在AI算法尚處于蓬勃發(fā)展、快速迭代的今天,ASIC存在開發(fā)周期較長、需要底層硬件編程、靈活性較低等劣勢,因此發(fā)展速度不及GPU和FPGA。

2)徹底顛覆傳統(tǒng)計(jì)算架構(gòu),采用模擬人腦神經(jīng)元結(jié)構(gòu)來提升計(jì)算能力,以IBM TrueNorth為代表的類腦芯片。類腦芯片研究是非常艱難的,IBM、高通、英特爾等公司的芯片策略都是用硬件來模仿人腦的神經(jīng)突觸。但由于技術(shù)和底層硬件的限制,這種方法尚處于前期研發(fā)階段,目前不具備大規(guī)模商業(yè)應(yīng)用的可能性。
本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊舉報(bào)。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
都是瞄準(zhǔn)人工智能市場,谷歌TPU與GPU、FPGA到底有啥不同?
魏少軍:大部分AI芯片企業(yè)都會(huì)成為“先烈”
從 GPU、FPGA 到 ASIC,后摩爾定律時(shí)代下 AI 芯片領(lǐng)域會(huì)產(chǎn)生哪些獨(dú)角獸公司?
CPU、GPU、NPU、FPGA等芯片架構(gòu)特點(diǎn)分析
十大熱門AI芯片
ASIP:人工智能芯片的新門類、少數(shù)派
更多類似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服