中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
可解釋的人工智能:為什么我們需要打開這個(gè)黑匣子

科技行者

來源:Forbes

編譯:科技行者

在企業(yè)中使用人工智能解決方案的挑戰(zhàn)之一,是人工智能通常運(yùn)行在所謂的黑匣子情況下。往往人工智能應(yīng)用采用神經(jīng)網(wǎng)絡(luò),使用算法產(chǎn)生結(jié)果,其復(fù)雜程度只有計(jì)算機(jī)可以理解。在其他情況下,人工智能廠商不會透露他們的人工智能是如何工作的。在任何一種情況下,當(dāng)傳統(tǒng)人工智能生成決策時(shí),人類用戶是不知道這個(gè)決策是如何得來的。  

這個(gè)黑匣子可能是一個(gè)很大的障礙。即使計(jì)算機(jī)正在處理信息,并且提出建議,計(jì)算機(jī)也沒有最終決定權(quán)。這種責(zé)任落在人類決策者身上,人類決策者應(yīng)該對任何負(fù)面后果負(fù)責(zé)。在許多當(dāng)前的人工智能用例中,這不是一個(gè)主要問題,因?yàn)椤板e(cuò)誤”決策的潛在影響可能非常低。  

然而,隨著人工智能應(yīng)用的擴(kuò)展,計(jì)算機(jī)制定的決策可能涉及數(shù)百萬美元——甚至是關(guān)系到人類的健康和安全。在高度監(jiān)管、高風(fēng)險(xiǎn)/高價(jià)值的行業(yè)中,信任計(jì)算機(jī)的決策而不了解計(jì)算機(jī)給出建議可能存在的潛在風(fēng)險(xiǎn)根源,你就可能面臨著極大的風(fēng)險(xiǎn)。這些企業(yè)越來越需要一種可解釋的人工智能(XAI)。  

人工智能領(lǐng)域已經(jīng)注意到了這個(gè)問題??山忉尩腁I曾經(jīng)是2017年神經(jīng)信息處理系統(tǒng)(NIPS)研討會的核心主題,而且DARPA也已經(jīng)投資了一個(gè)探索可解釋AI的項(xiàng)目。   

超越黑匣子:認(rèn)知AI  

認(rèn)知的、生物啟發(fā)的AI解決方案采用了類似人類推理和解決問題的方式,讓用戶可以看到黑匣子內(nèi)部的情況。與傳統(tǒng)的AI方法相比,認(rèn)知AI解決方案在數(shù)字?jǐn)?shù)據(jù)處理技術(shù)(如機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí))之上使用符號邏輯來獲得知識。

常規(guī)AI使用的神經(jīng)網(wǎng)絡(luò)必須接受數(shù)據(jù)的訓(xùn)練,但不必像人類那樣進(jìn)行理解。神經(jīng)網(wǎng)絡(luò)將數(shù)據(jù)視為一系列數(shù)字,根據(jù)他們的訓(xùn)練方式標(biāo)記這些數(shù)字,并使用模式識別來解決問題。當(dāng)神經(jīng)網(wǎng)絡(luò)得到數(shù)據(jù)的時(shí)候,它就會詢問自己之前是否已經(jīng)看過這些數(shù)據(jù),如果是的話,就會詢問之前是如何標(biāo)記這些數(shù)據(jù)的。   

相反,認(rèn)知AI是基于概念的。我們可以嚴(yán)格的關(guān)系級別來描述概念,或者可以添加允許AI自我解釋的自然語言組件。認(rèn)知AI會對自己說:“我受過訓(xùn)練才能理解這類問題。你向我展示了一系列功能,所以我需要操縱那些與我接受過的訓(xùn)練相關(guān)的功能。”   

認(rèn)知系統(tǒng)不會取代神經(jīng)網(wǎng)絡(luò),但確實(shí)解釋了神經(jīng)網(wǎng)絡(luò)的輸出并提供了敘述性的注釋。認(rèn)知AI所做出的決策是在清晰的審查跟蹤中提供出來的,人們可以理解這些決策,并查詢到更多的細(xì)節(jié)。這些審查線索解釋了AI給出建議背后的原因,以及證據(jù)、風(fēng)險(xiǎn)、信心和不確定性。  

自上而下的可解釋性  

可解釋性取決于誰需要解釋,對不同的人可能意味著不同的內(nèi)容。但是一般來說,如果風(fēng)險(xiǎn)很高的話,則需要更多的可解釋性。解釋可以是非常詳細(xì)的,顯示用于推導(dǎo)答案的各個(gè)數(shù)據(jù)和決策點(diǎn)??山忉屝赃€可以是為最終用戶編寫摘要報(bào)告的系統(tǒng)。強(qiáng)大的認(rèn)知AI系統(tǒng)可以根據(jù)查看信息的人員,以及信息的使用方式,自動調(diào)整解釋的深度和細(xì)節(jié)。  

在大多數(shù)情況下,人類可視化決策過程的最簡單方法是使用決策樹,樹的頂部包含最少量的信息,底部包含最多的信息??紤]到這一點(diǎn),可解釋性通??梢苑譃樽陨隙禄蜃韵露?。  

自上而下的方法適用于對細(xì)節(jié)不感興趣的最終用戶;他們只想知道答案是否正確。認(rèn)知AI可以預(yù)測計(jì)算機(jī)在當(dāng)前條件下會生成怎樣的預(yù)測。然后,技術(shù)用戶可以查看詳細(xì)信息,確定問題的原因,然后將其交給工程師進(jìn)行修復(fù)。自下而上的方法對于那些必須診斷和解決問題的工程師來說很有用。這些用戶可以查詢認(rèn)知AI,一直到?jīng)Q策樹的底部,并查看在頂部解釋AI結(jié)論的詳細(xì)信息。  

可解釋的AI是關(guān)于人的   

可解釋的人工智能始于人類。人工智能工程師可以與不同領(lǐng)域的專家展開合作,了解他們所在的領(lǐng)域,從算法/過程/探索角度研究他們的工作。工程師學(xué)到的東西被編碼成一個(gè)知識庫,讓認(rèn)知AI能夠驗(yàn)證其建議,并以人類可以理解的方式解釋它們得出的推理結(jié)果。   

認(rèn)知AI是面向未來的。盡管政府對人工智能的監(jiān)管速度緩慢,但立法機(jī)構(gòu)正在迎頭趕上。歐盟從去年5月開始實(shí)施通用數(shù)據(jù)保護(hù)法規(guī)(GDPR),它賦予了消費(fèi)者在做出自動決策時(shí)的知情權(quán),解釋這些決定的權(quán)利,以及徹底選擇退出自動決策的權(quán)利?,F(xiàn)在采用可解釋AI的企業(yè)將為未來的法規(guī)遵從要求做好準(zhǔn)備。   

AI不應(yīng)取代人類決策,它應(yīng)該幫助人類做出更好的決策。如果人們不相信人工智能系統(tǒng)的決策能力,這些系統(tǒng)就永遠(yuǎn)不會得到廣泛采用。為了讓人類信任AI,系統(tǒng)不能將所有秘密都鎖定在黑匣子里,XAI提供了這種解釋。

本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊舉報(bào)。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
國內(nèi)首份可解釋AI報(bào)告!值得收藏!
算法“黑箱”下AI信任存疑,可解釋性AI迎來發(fā)展“元年”
了解人工智能''想法''的新方法:TCAV 或許最后人類還是會拋棄人工智能
7000字深度長文丨AI深處令人恐懼的陰暗秘密
集大成者!可解釋人工智能(XAI)研究最新進(jìn)展萬字綜述論文: 概念體系機(jī)遇和挑戰(zhàn)—構(gòu)建負(fù)責(zé)任的人工智...
DARPA的可解釋人工智能程序
更多類似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服