中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開(kāi)APP
userphoto
未登錄

開(kāi)通VIP,暢享免費(fèi)電子書(shū)等14項(xiàng)超值服

開(kāi)通VIP
神經(jīng)網(wǎng)絡(luò)算法是什么意思,神經(jīng)網(wǎng)絡(luò)計(jì)算工作原理

神經(jīng)網(wǎng)絡(luò)算法原理

一共有四種算法及原理,如下所示:1、自適應(yīng)諧振理論(ART)網(wǎng)絡(luò)自適應(yīng)諧振理論(ART)網(wǎng)絡(luò)具有不同的方案。一個(gè)ART-1網(wǎng)絡(luò)含有兩層一個(gè)輸入層和一個(gè)輸出層。

這兩層完全互連,該連接沿著正向(自底向上)和反饋(自頂向下)兩個(gè)方向進(jìn)行。2、學(xué)習(xí)矢量量化(LVQ)網(wǎng)絡(luò)學(xué)習(xí)矢量量化(LVQ)網(wǎng)絡(luò),它由三層神經(jīng)元組成,即輸入轉(zhuǎn)換層、隱含層和輸出層。

該網(wǎng)絡(luò)在輸入層與隱含層之間為完全連接,而在隱含層與輸出層之間為部分連接,每個(gè)輸出神經(jīng)元與隱含神經(jīng)元的不同組相連接。

3、Kohonen網(wǎng)絡(luò)Kohonen網(wǎng)絡(luò)或自組織特征映射網(wǎng)絡(luò)含有兩層,一個(gè)輸入緩沖層用于接收輸入模式,另一個(gè)為輸出層,輸出層的神經(jīng)元一般按正則二維陣列排列,每個(gè)輸出神經(jīng)元連接至所有輸入神經(jīng)元。

連接權(quán)值形成與已知輸出神經(jīng)元相連的參考矢量的分量。4、Hopfield網(wǎng)絡(luò)Hopfield網(wǎng)絡(luò)是一種典型的遞歸網(wǎng)絡(luò),這種網(wǎng)絡(luò)通常只接受二進(jìn)制輸入(0或1)以及雙極輸入( 1或-1)。

它含有一個(gè)單層神經(jīng)元,每個(gè)神經(jīng)元與所有其他神經(jīng)元連接,形成遞歸結(jié)構(gòu)。擴(kuò)展資料:人工神經(jīng)網(wǎng)絡(luò)算法的歷史背景:該算法系統(tǒng)是 20 世紀(jì) 40 年代后出現(xiàn)的。

它是由眾多的神經(jīng)元可調(diào)的連接權(quán)值連接而成,具有大規(guī)模并行處理、分布式信息存儲(chǔ)、良好的自組織自學(xué)習(xí)能力等特點(diǎn)。BP算法又稱(chēng)為誤差反向傳播算法,是人工神經(jīng)網(wǎng)絡(luò)中的一種監(jiān)督式的學(xué)習(xí)算法。

BP 神經(jīng)網(wǎng)絡(luò)算法在理論上可以逼近任意函數(shù),基本的結(jié)構(gòu)由非線性變化單元組成,具有很強(qiáng)的非線性映射能力。

而且網(wǎng)絡(luò)的中間層數(shù)、各層的處理單元數(shù)及網(wǎng)絡(luò)的學(xué)習(xí)系數(shù)等參數(shù)可根據(jù)具體情況設(shè)定,靈活性很大,在優(yōu)化、信號(hào)處理與模式識(shí)別、智能控制、故障診斷等許 多領(lǐng)域都有著廣泛的應(yīng)用前景。

參考資料來(lái)源:百度百科——神經(jīng)網(wǎng)絡(luò)算法。

谷歌人工智能寫(xiě)作項(xiàng)目:神經(jīng)網(wǎng)絡(luò)偽原創(chuàng)

神經(jīng)網(wǎng)絡(luò)算法原理

4.2.1 概述人工神經(jīng)網(wǎng)絡(luò)的研究與計(jì)算機(jī)的研究幾乎是同步發(fā)展的好文案。

1943年心理學(xué)家McCulloch和數(shù)學(xué)家Pitts合作提出了形式神經(jīng)元的數(shù)學(xué)模型,20世紀(jì)50年代末,Rosenblatt提出了感知器模型,1982年,Hopfiled引入了能量函數(shù)的概念提出了神經(jīng)網(wǎng)絡(luò)的一種數(shù)學(xué)模型,1986年,Rumelhart及LeCun等學(xué)者提出了多層感知器的反向傳播算法等。

神經(jīng)網(wǎng)絡(luò)技術(shù)在眾多研究者的努力下,理論上日趨完善,算法種類(lèi)不斷增加。目前,有關(guān)神經(jīng)網(wǎng)絡(luò)的理論研究成果很多,出版了不少有關(guān)基礎(chǔ)理論的著作,并且現(xiàn)在仍是全球非線性科學(xué)研究的熱點(diǎn)之一。

神經(jīng)網(wǎng)絡(luò)是一種通過(guò)模擬人的大腦神經(jīng)結(jié)構(gòu)去實(shí)現(xiàn)人腦智能活動(dòng)功能的信息處理系統(tǒng),它具有人腦的基本功能,但又不是人腦的真實(shí)寫(xiě)照。它是人腦的一種抽象、簡(jiǎn)化和模擬模型,故稱(chēng)之為人工神經(jīng)網(wǎng)絡(luò)(邊肇祺,2000)。

人工神經(jīng)元是神經(jīng)網(wǎng)絡(luò)的節(jié)點(diǎn),是神經(jīng)網(wǎng)絡(luò)的最重要組成部分之一。目前,有關(guān)神經(jīng)元的模型種類(lèi)繁多,最常用最簡(jiǎn)單的模型是由閾值函數(shù)、Sigmoid 函數(shù)構(gòu)成的模型(圖 4-3)。

圖4-3 人工神經(jīng)元與兩種常見(jiàn)的輸出函數(shù)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)及識(shí)別方法最初是借鑒人腦神經(jīng)元的學(xué)習(xí)識(shí)別過(guò)程提出的。

輸入?yún)?shù)好比神經(jīng)元接收信號(hào),通過(guò)一定的權(quán)值(相當(dāng)于刺激神經(jīng)興奮的強(qiáng)度)與神經(jīng)元相連,這一過(guò)程有些類(lèi)似于多元線性回歸,但模擬的非線性特征是通過(guò)下一步驟體現(xiàn)的,即通過(guò)設(shè)定一閾值(神經(jīng)元興奮極限)來(lái)確定神經(jīng)元的興奮模式,經(jīng)輸出運(yùn)算得到輸出結(jié)果。

經(jīng)過(guò)大量樣本進(jìn)入網(wǎng)絡(luò)系統(tǒng)學(xué)習(xí)訓(xùn)練之后,連接輸入信號(hào)與神經(jīng)元之間的權(quán)值達(dá)到穩(wěn)定并可最大限度地符合已經(jīng)經(jīng)過(guò)訓(xùn)練的學(xué)習(xí)樣本。

在被確認(rèn)網(wǎng)絡(luò)結(jié)構(gòu)的合理性和學(xué)習(xí)效果的高精度之后,將待預(yù)測(cè)樣本輸入?yún)?shù)代入網(wǎng)絡(luò),達(dá)到參數(shù)預(yù)測(cè)的目的。

4.2.2 反向傳播算法(BP法)發(fā)展到目前為止,神經(jīng)網(wǎng)絡(luò)模型不下十幾種,如前饋神經(jīng)網(wǎng)絡(luò)、感知器、Hopfiled 網(wǎng)絡(luò)、徑向基函數(shù)網(wǎng)絡(luò)、反向傳播算法(BP法)等,但在儲(chǔ)層參數(shù)反演方面,目前比較成熟比較流行的網(wǎng)絡(luò)類(lèi)型是誤差反向傳播神經(jīng)網(wǎng)絡(luò)(BP-ANN)。

BP網(wǎng)絡(luò)是在前饋神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上發(fā)展起來(lái)的,始終有一個(gè)輸入層(它包含的節(jié)點(diǎn)對(duì)應(yīng)于每個(gè)輸入變量)和一個(gè)輸出層(它包含的節(jié)點(diǎn)對(duì)應(yīng)于每個(gè)輸出值),以及至少有一個(gè)具有任意節(jié)點(diǎn)數(shù)的隱含層(又稱(chēng)中間層)。

在 BP-ANN中,相鄰層的節(jié)點(diǎn)通過(guò)一個(gè)任意初始權(quán)值全部相連,但同一層內(nèi)各節(jié)點(diǎn)間互不相連。

對(duì)于 BP-ANN,隱含層和輸出層節(jié)點(diǎn)的基函數(shù)必須是連續(xù)的、單調(diào)遞增的,當(dāng)輸入趨于正或負(fù)無(wú)窮大時(shí),它應(yīng)該接近于某一固定值,也就是說(shuō),基函數(shù)為“S”型(Kosko,1992)。

BP-ANN 的訓(xùn)練是一個(gè)監(jiān)督學(xué)習(xí)過(guò)程,涉及兩個(gè)數(shù)據(jù)集,即訓(xùn)練數(shù)據(jù)集和監(jiān)督數(shù)據(jù)集。

給網(wǎng)絡(luò)的輸入層提供一組輸入信息,使其通過(guò)網(wǎng)絡(luò)而在輸出層上產(chǎn)生逼近期望輸出的過(guò)程,稱(chēng)之為網(wǎng)絡(luò)的學(xué)習(xí),或稱(chēng)對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,實(shí)現(xiàn)這一步驟的方法則稱(chēng)為學(xué)習(xí)算法。

BP網(wǎng)絡(luò)的學(xué)習(xí)過(guò)程包括兩個(gè)階段:第一個(gè)階段是正向過(guò)程,將輸入變量通過(guò)輸入層經(jīng)隱層逐層計(jì)算各單元的輸出值;第二階段是反向傳播過(guò)程,由輸出誤差逐層向前算出隱層各單元的誤差,并用此誤差修正前層權(quán)值。

誤差信息通過(guò)網(wǎng)絡(luò)反向傳播,遵循誤差逐步降低的原則來(lái)調(diào)整權(quán)值,直到達(dá)到滿意的輸出為止。

網(wǎng)絡(luò)經(jīng)過(guò)學(xué)習(xí)以后,一組合適的、穩(wěn)定的權(quán)值連接權(quán)被固定下來(lái),將待預(yù)測(cè)樣本作為輸入層參數(shù),網(wǎng)絡(luò)經(jīng)過(guò)向前傳播便可以得到輸出結(jié)果,這就是網(wǎng)絡(luò)的預(yù)測(cè)。

反向傳播算法主要步驟如下:首先選定權(quán)系數(shù)初始值,然后重復(fù)下述過(guò)程直至收斂(對(duì)各樣本依次計(jì)算)。

(1)從前向后各層計(jì)算各單元Oj儲(chǔ)層特征研究與預(yù)測(cè)(2)對(duì)輸出層計(jì)算δj儲(chǔ)層特征研究與預(yù)測(cè)(3)從后向前計(jì)算各隱層δj儲(chǔ)層特征研究與預(yù)測(cè)(4)計(jì)算并保存各權(quán)值修正量?jī)?chǔ)層特征研究與預(yù)測(cè)(5)修正權(quán)值儲(chǔ)層特征研究與預(yù)測(cè)以上算法是對(duì)每個(gè)樣本作權(quán)值修正,也可以對(duì)各個(gè)樣本計(jì)算δj后求和,按總誤差修正權(quán)值。

神經(jīng)網(wǎng)絡(luò)原理及應(yīng)用

神經(jīng)網(wǎng)絡(luò)原理及應(yīng)用1. 什么是神經(jīng)網(wǎng)絡(luò)?神經(jīng)網(wǎng)絡(luò)是一種模擬動(dòng)物神經(jīng)網(wǎng)絡(luò)行為特征,進(jìn)行分布式并行信息處理的算法。

這種網(wǎng)絡(luò)依靠系統(tǒng)的復(fù)雜程度,通過(guò)調(diào)整內(nèi)部大量節(jié)點(diǎn)之間相互連接的關(guān)系,從而達(dá)到處理信息的目的。

人類(lèi)的神經(jīng)網(wǎng)絡(luò)2. 神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)構(gòu)成:大量簡(jiǎn)單的基礎(chǔ)元件——神經(jīng)元相互連接工作原理:模擬生物的神經(jīng)處理信息的方式功能:進(jìn)行信息的并行處理和非線性轉(zhuǎn)化特點(diǎn):比較輕松地實(shí)現(xiàn)非線性映射過(guò)程,具有大規(guī)模的計(jì)算能力神經(jīng)網(wǎng)絡(luò)的本質(zhì):神經(jīng)網(wǎng)絡(luò)的本質(zhì)就是利用計(jì)算機(jī)語(yǔ)言模擬人類(lèi)大腦做決定的過(guò)程。

3. 生物神經(jīng)元結(jié)構(gòu)4. 神經(jīng)元結(jié)構(gòu)模型xj為輸入信號(hào),θi為閾值,wij表示與神經(jīng)元連接的權(quán)值,yi表示輸出值判斷xjwij是否大于閾值θi5. 什么是閾值?

臨界值。神經(jīng)網(wǎng)絡(luò)是模仿大腦的神經(jīng)元,當(dāng)外界刺激達(dá)到一定的閾值時(shí),神經(jīng)元才會(huì)受刺激,影響下一個(gè)神經(jīng)元。

6. 幾種代表性的網(wǎng)絡(luò)模型單層前向神經(jīng)網(wǎng)絡(luò)——線性網(wǎng)絡(luò)階躍網(wǎng)絡(luò)多層前向神經(jīng)網(wǎng)絡(luò)(反推學(xué)習(xí)規(guī)則即BP神經(jīng)網(wǎng)絡(luò))Elman網(wǎng)絡(luò)、Hopfield網(wǎng)絡(luò)、雙向聯(lián)想記憶網(wǎng)絡(luò)、自組織競(jìng)爭(zhēng)網(wǎng)絡(luò)等等7. 神經(jīng)網(wǎng)絡(luò)能干什么?

運(yùn)用這些網(wǎng)絡(luò)模型可實(shí)現(xiàn)函數(shù)逼近、數(shù)據(jù)聚類(lèi)、模式分類(lèi)、優(yōu)化計(jì)算等功能。因此,神經(jīng)網(wǎng)絡(luò)廣泛應(yīng)用于人工智能、自動(dòng)控制、機(jī)器人、統(tǒng)計(jì)學(xué)等領(lǐng)域的信息處理中。

雖然神經(jīng)網(wǎng)絡(luò)的應(yīng)用很廣,但是在具體的使用過(guò)程中到底應(yīng)當(dāng)選擇哪種網(wǎng)絡(luò)結(jié)構(gòu)比較合適是值得考慮的。這就需要我們對(duì)各種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)有一個(gè)較全面的認(rèn)識(shí)。8. 神經(jīng)網(wǎng)絡(luò)應(yīng)用。

神經(jīng)網(wǎng)絡(luò)算法原理?

神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)學(xué)習(xí)樣本中的駕駛行為特征。

如圖顯示了某個(gè)駕駛場(chǎng)景的行駛路徑深度學(xué)習(xí)訓(xùn)練,通過(guò)神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)駕駛?cè)说男袨?,并根?jù)當(dāng)前獲取的環(huán)境信息決策行駛軌跡,進(jìn)而可以控制車(chē)輛的轉(zhuǎn)向、制動(dòng)、驅(qū)動(dòng)實(shí)現(xiàn)軌跡跟蹤。

BP神經(jīng)網(wǎng)絡(luò)原理

人工神經(jīng)網(wǎng)絡(luò)有很多模型,但是日前應(yīng)用最廣、基本思想最直觀、最容易被理解的是多層前饋神經(jīng)網(wǎng)絡(luò)及誤差逆?zhèn)鞑W(xué)習(xí)算法(Error Back-Prooaeation),簡(jiǎn)稱(chēng)為BP網(wǎng)絡(luò)。

在1986年以Rumelhart和McCelland為首的科學(xué)家出版的《Parallel Distributed Processing》一書(shū)中,完整地提出了誤差逆?zhèn)鞑W(xué)習(xí)算法,并被廣泛接受。

多層感知網(wǎng)絡(luò)是一種具有三層或三層以上的階層型神經(jīng)網(wǎng)絡(luò)。

典型的多層感知網(wǎng)絡(luò)是三層、前饋的階層網(wǎng)絡(luò)(圖4.1),即:輸入層、隱含層(也稱(chēng)中間層)、輸出層,具體如下:圖4.1 三層BP網(wǎng)絡(luò)結(jié)構(gòu)(1)輸入層輸入層是網(wǎng)絡(luò)與外部交互的接口。

一般輸入層只是輸入矢量的存儲(chǔ)層,它并不對(duì)輸入矢量作任何加工和處理。輸入層的神經(jīng)元數(shù)目可以根據(jù)需要求解的問(wèn)題和數(shù)據(jù)表示的方式來(lái)確定。

一般而言,如果輸入矢量為圖像,則輸入層的神經(jīng)元數(shù)目可以為圖像的像素?cái)?shù),也可以是經(jīng)過(guò)處理后的圖像特征數(shù)。

(2)隱含層1989年,Robert Hecht Nielsno證明了對(duì)于任何在閉區(qū)間內(nèi)的一個(gè)連續(xù)函數(shù)都可以用一個(gè)隱層的BP網(wǎng)絡(luò)來(lái)逼近,因而一個(gè)三層的BP網(wǎng)絡(luò)可以完成任意的n維到m維的映射。

增加隱含層數(shù)雖然可以更進(jìn)一步的降低誤差、提高精度,但是也使網(wǎng)絡(luò)復(fù)雜化,從而增加了網(wǎng)絡(luò)權(quán)值的訓(xùn)練時(shí)間。

誤差精度的提高也可以通過(guò)增加隱含層中的神經(jīng)元數(shù)目來(lái)實(shí)現(xiàn),其訓(xùn)練效果也比增加隱含層數(shù)更容易觀察和調(diào)整,所以一般情況應(yīng)優(yōu)先考慮增加隱含層的神經(jīng)元個(gè)數(shù),再根據(jù)具體情況選擇合適的隱含層數(shù)。

(3)輸出層輸出層輸出網(wǎng)絡(luò)訓(xùn)練的結(jié)果矢量,輸出矢量的維數(shù)應(yīng)根據(jù)具體的應(yīng)用要求來(lái)設(shè)計(jì),在設(shè)計(jì)時(shí),應(yīng)盡可能減少系統(tǒng)的規(guī)模,使系統(tǒng)的復(fù)雜性減少。

如果網(wǎng)絡(luò)用作識(shí)別器,則識(shí)別的類(lèi)別神經(jīng)元接近1,而其它神經(jīng)元輸出接近0。

以上三層網(wǎng)絡(luò)的相鄰層之間的各神經(jīng)元實(shí)現(xiàn)全連接,即下一層的每一個(gè)神經(jīng)元與上一層的每個(gè)神經(jīng)元都實(shí)現(xiàn)全連接,而且每層各神經(jīng)元之間無(wú)連接,連接強(qiáng)度構(gòu)成網(wǎng)絡(luò)的權(quán)值矩陣W。

BP網(wǎng)絡(luò)是以一種有教師示教的方式進(jìn)行學(xué)習(xí)的。首先由教師對(duì)每一種輸入模式設(shè)定一個(gè)期望輸出值。然后對(duì)網(wǎng)絡(luò)輸入實(shí)際的學(xué)習(xí)記憶模式,并由輸入層經(jīng)中間層向輸出層傳播(稱(chēng)為“模式順傳播”)。

實(shí)際輸出與期望輸出的差即是誤差。按照誤差平方最小這一規(guī)則,由輸出層往中間層逐層修正連接權(quán)值,此過(guò)程稱(chēng)為“誤差逆?zhèn)鞑ァ保愓?005)。

所以誤差逆?zhèn)鞑ド窠?jīng)網(wǎng)絡(luò)也簡(jiǎn)稱(chēng)BP(Back Propagation)網(wǎng)。隨著“模式順傳播”和“誤差逆?zhèn)鞑ァ边^(guò)程的交替反復(fù)進(jìn)行。

網(wǎng)絡(luò)的實(shí)際輸出逐漸向各自所對(duì)應(yīng)的期望輸出逼近,網(wǎng)絡(luò)對(duì)輸入模式的響應(yīng)的正確率也不斷上升。通過(guò)此學(xué)習(xí)過(guò)程,確定下各層間的連接權(quán)值后。

典型三層BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)及程序運(yùn)行過(guò)程如下(標(biāo)志淵,2006):(1)首先,對(duì)各符號(hào)的形式及意義進(jìn)行說(shuō)明:網(wǎng)絡(luò)輸入向量Pk=(a1,a2,...,an);網(wǎng)絡(luò)目標(biāo)向量Tk=(y1,y2,...,yn);中間層單元輸入向量Sk=(s1,s2,...,sp),輸出向量Bk=(b1,b2,...,bp);輸出層單元輸入向量Lk=(l1,l2,...,lq),輸出向量Ck=(c1,c2,...,cq);輸入層至中間層的連接權(quán)wij,i=1,2,...,n,j=1,2,...p;中間層至輸出層的連接權(quán)vjt,j=1,2,...,p,t=1,2,...,p;中間層各單元的輸出閾值θj,j=1,2,...,p;輸出層各單元的輸出閾值γj,j=1,2,...,p;參數(shù)k=1,2,...,m。

(2)初始化。給每個(gè)連接權(quán)值wij、vjt、閾值θj與γj賦予區(qū)間(-1,1)內(nèi)的隨機(jī)值。(3)隨機(jī)選取一組輸入和目標(biāo)樣本 提供給網(wǎng)絡(luò)。

(4)用輸入樣本 、連接權(quán)wij和閾值θj計(jì)算中間層各單元的輸入sj,然后用sj通過(guò)傳遞函數(shù)計(jì)算中間層各單元的輸出bj。

基坑降水工程的環(huán)境效應(yīng)與評(píng)價(jià)方法bj=f(sj) j=1,2,...,p (4.5)(5)利用中間層的輸出bj、連接權(quán)vjt和閾值γt計(jì)算輸出層各單元的輸出Lt,然后通過(guò)傳遞函數(shù)計(jì)算輸出層各單元的響應(yīng)Ct。

基坑降水工程的環(huán)境效應(yīng)與評(píng)價(jià)方法Ct=f(Lt) t=1,2,...,q (4.7)(6)利用網(wǎng)絡(luò)目標(biāo)向量 ,網(wǎng)絡(luò)的實(shí)際輸出Ct,計(jì)算輸出層的各單元一般化誤差 。

基坑降水工程的環(huán)境效應(yīng)與評(píng)價(jià)方法(7)利用連接權(quán)vjt、輸出層的一般化誤差dt和中間層的輸出bj計(jì)算中間層各單元的一般化誤差 。

基坑降水工程的環(huán)境效應(yīng)與評(píng)價(jià)方法(8)利用輸出層各單元的一般化誤差 與中間層各單元的輸出bj來(lái)修正連接權(quán)vjt和閾值γt。

基坑降水工程的環(huán)境效應(yīng)與評(píng)價(jià)方法(9)利用中間層各單元的一般化誤差 ,輸入層各單元的輸入Pk=(a1,a2,...,an)來(lái)修正連接權(quán)wij和閾值θj。

基坑降水工程的環(huán)境效應(yīng)與評(píng)價(jià)方法(10)隨機(jī)選取下一個(gè)學(xué)習(xí)樣本向量提供給網(wǎng)絡(luò),返回到步驟(3),直到m個(gè)訓(xùn)練樣本訓(xùn)練完畢。

(11)重新從m個(gè)學(xué)習(xí)樣本中隨機(jī)選取一組輸入和目標(biāo)樣本,返回步驟(3),直到網(wǎng)路全局誤差E小于預(yù)先設(shè)定的一個(gè)極小值,即網(wǎng)絡(luò)收斂。如果學(xué)習(xí)次數(shù)大于預(yù)先設(shè)定的值,網(wǎng)絡(luò)就無(wú)法收斂。(12)學(xué)習(xí)結(jié)束。

可以看出,在以上學(xué)習(xí)步驟中,(8)、(9)步為網(wǎng)絡(luò)誤差的“逆?zhèn)鞑ミ^(guò)程”,(10)、(11)步則用于完成訓(xùn)練和收斂過(guò)程。通常,經(jīng)過(guò)訓(xùn)練的網(wǎng)絡(luò)還應(yīng)該進(jìn)行性能測(cè)試。

測(cè)試的方法就是選擇測(cè)試樣本向量,將其提供給網(wǎng)絡(luò),檢驗(yàn)網(wǎng)絡(luò)對(duì)其分類(lèi)的正確性。測(cè)試樣本向量中應(yīng)該包含今后網(wǎng)絡(luò)應(yīng)用過(guò)程中可能遇到的主要典型模式(宋大奇,2006)。

這些樣本可以直接測(cè)取得到,也可以通過(guò)仿真得到,在樣本數(shù)據(jù)較少或者較難得到時(shí),也可以通過(guò)對(duì)學(xué)習(xí)樣本加上適當(dāng)?shù)脑肼暬虬凑找欢ㄒ?guī)則插值得到。

為了更好地驗(yàn)證網(wǎng)絡(luò)的泛化能力,一個(gè)良好的測(cè)試樣本集中不應(yīng)該包含和學(xué)習(xí)樣本完全相同的模式(董軍,2007)。

rbf神經(jīng)網(wǎng)絡(luò)原理是什么?

rbf神經(jīng)網(wǎng)絡(luò)原理是用RBF作為隱單元的“基”構(gòu)成隱含層空間,這樣就可以將輸入矢量直接映射到隱空間,而不需要通過(guò)權(quán)連接。當(dāng)RBF的中心點(diǎn)確定以后,這種映射關(guān)系也就確定了。

而隱含層空間到輸出空間的映射是線性的,即網(wǎng)絡(luò)的輸出是隱單元輸出的線性加權(quán)和,此處的權(quán)即為網(wǎng)絡(luò)可調(diào)參數(shù)。

其中,隱含層的作用是把向量從低維度的p映射到高維度的h,這樣低維度線性不可分的情況到高維度就可以變得線性可分了,主要就是核函數(shù)的思想。

RBF神經(jīng)網(wǎng)絡(luò)的隱節(jié)點(diǎn)RBF神經(jīng)網(wǎng)絡(luò)的隱節(jié)點(diǎn)采用輸入模式與中心向量的距離(如歐式距離)作為函數(shù)的自變量,并使用徑向基函數(shù)(如Gaussian函數(shù))作為激活函數(shù)。

神經(jīng)元的輸入離徑向基函數(shù)中心越遠(yuǎn),神經(jīng)元的激活程度就越低(高斯函數(shù))。

RBF網(wǎng)絡(luò)的輸出與部分調(diào)參數(shù)有關(guān),譬如,一個(gè)wij值只影響一個(gè)yi的輸出(參考上面第二章網(wǎng)絡(luò)輸出),RBF神經(jīng)網(wǎng)絡(luò)因此具有“局部映射”特性。

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開(kāi)APP,閱讀全文并永久保存 查看更多類(lèi)似文章
猜你喜歡
類(lèi)似文章
《常用算法之智能計(jì)算 (二) 》:神經(jīng)網(wǎng)絡(luò)計(jì)算
人工神經(jīng)網(wǎng)絡(luò)
神經(jīng)網(wǎng)絡(luò)--BP網(wǎng)絡(luò)學(xué)習(xí)算法
漫談ANN(2):BP神經(jīng)網(wǎng)絡(luò) | HaHack
BP神經(jīng)網(wǎng)絡(luò)
SVM與神經(jīng)網(wǎng)絡(luò)模型在股票預(yù)測(cè)中的應(yīng)用研究
更多類(lèi)似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服