DL:深度學(xué)習(xí)(神經(jīng)網(wǎng)絡(luò))的簡介、基礎(chǔ)知識(神經(jīng)元/感知機(jī)、訓(xùn)練策略、預(yù)測原理)、算法分類、經(jīng)典案例應(yīng)用之詳細(xì)攻略
? ? ? ?深度學(xué)習(xí)(Deep Learning, DL)或階層學(xué)習(xí)(hierarchical learning)是機(jī)器學(xué)習(xí)的技術(shù)和研究領(lǐng)域之一,通過建立具有階層結(jié)構(gòu)的人工神經(jīng)網(wǎng)絡(luò)(Artifitial Neural Networks, ANNs),在計算系統(tǒng)中實現(xiàn)人工智能 ?。由于階層ANN能夠?qū)斎胄畔⑦M(jìn)行逐層提取和篩選,因此深度學(xué)習(xí)具有表征學(xué)習(xí)(representation learning)能力 ,可以實現(xiàn)端到端的監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí) 。此外,深度學(xué)習(xí)也可參與構(gòu)建強(qiáng)化學(xué)習(xí)(reinforcement learning)系統(tǒng),形成深度強(qiáng)化學(xué)習(xí) ?。
? ? ? ?深度學(xué)習(xí)所使用的階層ANN具有多種形態(tài),其階層的復(fù)雜度被通稱為“深度” ?。按構(gòu)筑類型,深度學(xué)習(xí)的形式包括多層感知器、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、深度置信網(wǎng)絡(luò)和其它混合構(gòu)筑 ?。深度學(xué)習(xí)使用數(shù)據(jù)對其構(gòu)筑中的參數(shù)進(jìn)行更新以達(dá)成訓(xùn)練目標(biāo),該過程被通稱為“學(xué)習(xí)” ?。學(xué)習(xí)的常見方法為梯度下降算法及其變體 ,一些統(tǒng)計學(xué)習(xí)理論被用于學(xué)習(xí)過程的優(yōu)化 [9] ?。
? ? ? ? 在應(yīng)用方面,深度學(xué)習(xí)被用于對復(fù)雜結(jié)構(gòu)和大樣本的高維數(shù)據(jù)進(jìn)行學(xué)習(xí),按研究領(lǐng)域包括計算機(jī)視覺、自然語言處理、生物信息學(xué)、自動控制等,且在人像識別、機(jī)器翻譯、自動駕駛等現(xiàn)實問題中取得了成功。?
? ? ? ?深度學(xué)習(xí)的實質(zhì)是構(gòu)建具有多個隱藏層的機(jī)器學(xué)習(xí)模型,通過海量的訓(xùn)練數(shù)據(jù)來學(xué)習(xí)更有用的特征,從而最終提升分類或預(yù)測的準(zhǔn)確性。“深度模型”是手段,“表示學(xué)習(xí)”是目的。
? ? ? ?深度學(xué)習(xí)與傳統(tǒng)的淺層學(xué)習(xí)的不同在于:
DL之DNN優(yōu)化技術(shù):神經(jīng)網(wǎng)絡(luò)算法簡介之GD/SGD算法的簡介、代碼實現(xiàn)、代碼調(diào)參之詳細(xì)攻略
DL之DNN:BP類神經(jīng)網(wǎng)絡(luò)理解之不需要額外任何文字,只需要八張圖講清楚BP類神經(jīng)網(wǎng)絡(luò)的工作原理
生物神經(jīng)元包括細(xì)胞體和突起兩個部分,突起又包括樹突(接收信號)和軸突(傳出信號)。
DL之Perceptron:Perceptron感知器(感知機(jī)/多層感知機(jī)/人工神經(jīng)元)的簡介、原理、案例應(yīng)用(相關(guān)配圖)之詳細(xì)攻略
?(Universal approximation theorem)
(1)、損失函數(shù):
平均損失函數(shù)
絕對值損失函數(shù)
交叉熵?fù)p失函數(shù):softmax回歸,獨熱編碼。
(2)、優(yōu)化目標(biāo)
(3)、梯度下降:
(4)、反向傳播法:計算圖解釋
1、神經(jīng)網(wǎng)絡(luò)訓(xùn)練的優(yōu)化目標(biāo)
(1)、通過調(diào)整神經(jīng)元的參數(shù),使得網(wǎng)絡(luò)對給定輸入可產(chǎn)生期望輸出。
(2)、學(xué)習(xí)層次化的表示(表征)
? ? ?
前饋運(yùn)算和反向傳播:在訓(xùn)練網(wǎng)絡(luò)過程中所使用的。如果經(jīng)過訓(xùn)練模型,網(wǎng)絡(luò)穩(wěn)定下來以后,就可以把參數(shù)固定下來,此時就不再需要反向傳播了,只需要前饋運(yùn)算進(jìn)行推理和預(yù)測即可!
?
DL學(xué)習(xí)—AF:理解機(jī)器學(xué)習(xí)中常用的激活函數(shù)(sigmoid、softmax等)簡介、應(yīng)用、計算圖實現(xiàn)、代碼實現(xiàn)詳細(xì)攻略
? ? ? ? ?深度學(xué)習(xí)的形式包括多層感知器、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、深度置信網(wǎng)絡(luò)和其它混合構(gòu)筑 ?。
?? ? ? ? ?前饋神經(jīng)網(wǎng)絡(luò)(NN),而是和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的概念是相對的。而反向傳播方法可以用在FF網(wǎng)絡(luò)中,此時,基于反向傳播算法的前饋神經(jīng)網(wǎng)絡(luò),被稱為BP神經(jīng)網(wǎng)絡(luò)。
DL:神經(jīng)網(wǎng)絡(luò)所有模型(包括DNN、CNN、RNN等)的簡介(概覽)、網(wǎng)絡(luò)結(jié)構(gòu)簡介、使用場景對比之詳細(xì)攻略
1、DNN
DL之DNN:DNN深度神經(jīng)網(wǎng)絡(luò)算法的簡介、相關(guān)論文、設(shè)計思路、關(guān)鍵步驟、實現(xiàn)代碼等配圖集合之詳細(xì)攻略
2、CNN
DL之CNN:計算機(jī)視覺卷積神經(jīng)網(wǎng)絡(luò)算法CNN算法常見結(jié)構(gòu)、發(fā)展、CNN優(yōu)化技術(shù)、案例應(yīng)用之詳細(xì)攻略
3、RNN
DL之RNN:RNN算法的簡介、相關(guān)論文、相關(guān)思路、關(guān)鍵步驟、配圖集合+TF代碼定義之詳細(xì)攻略
4、DBN
后期更新……
聯(lián)系客服