科技行者
來源:Forbes
編譯:科技行者
在企業(yè)中使用人工智能解決方案的挑戰(zhàn)之一,是人工智能通常運(yùn)行在所謂的黑匣子情況下。往往人工智能應(yīng)用采用神經(jīng)網(wǎng)絡(luò),使用算法產(chǎn)生結(jié)果,其復(fù)雜程度只有計(jì)算機(jī)可以理解。在其他情況下,人工智能廠商不會透露他們的人工智能是如何工作的。在任何一種情況下,當(dāng)傳統(tǒng)人工智能生成決策時(shí),人類用戶是不知道這個(gè)決策是如何得來的。
這個(gè)黑匣子可能是一個(gè)很大的障礙。即使計(jì)算機(jī)正在處理信息,并且提出建議,計(jì)算機(jī)也沒有最終決定權(quán)。這種責(zé)任落在人類決策者身上,人類決策者應(yīng)該對任何負(fù)面后果負(fù)責(zé)。在許多當(dāng)前的人工智能用例中,這不是一個(gè)主要問題,因?yàn)椤板e(cuò)誤”決策的潛在影響可能非常低。
然而,隨著人工智能應(yīng)用的擴(kuò)展,計(jì)算機(jī)制定的決策可能涉及數(shù)百萬美元——甚至是關(guān)系到人類的健康和安全。在高度監(jiān)管、高風(fēng)險(xiǎn)/高價(jià)值的行業(yè)中,信任計(jì)算機(jī)的決策而不了解計(jì)算機(jī)給出建議可能存在的潛在風(fēng)險(xiǎn)根源,你就可能面臨著極大的風(fēng)險(xiǎn)。這些企業(yè)越來越需要一種可解釋的人工智能(XAI)。
人工智能領(lǐng)域已經(jīng)注意到了這個(gè)問題??山忉尩腁I曾經(jīng)是2017年神經(jīng)信息處理系統(tǒng)(NIPS)研討會的核心主題,而且DARPA也已經(jīng)投資了一個(gè)探索可解釋AI的項(xiàng)目。
超越黑匣子:認(rèn)知AI
認(rèn)知的、生物啟發(fā)的AI解決方案采用了類似人類推理和解決問題的方式,讓用戶可以看到黑匣子內(nèi)部的情況。與傳統(tǒng)的AI方法相比,認(rèn)知AI解決方案在數(shù)字?jǐn)?shù)據(jù)處理技術(shù)(如機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí))之上使用符號邏輯來獲得知識。
常規(guī)AI使用的神經(jīng)網(wǎng)絡(luò)必須接受數(shù)據(jù)的訓(xùn)練,但不必像人類那樣進(jìn)行理解。神經(jīng)網(wǎng)絡(luò)將數(shù)據(jù)視為一系列數(shù)字,根據(jù)他們的訓(xùn)練方式標(biāo)記這些數(shù)字,并使用模式識別來解決問題。當(dāng)神經(jīng)網(wǎng)絡(luò)得到數(shù)據(jù)的時(shí)候,它就會詢問自己之前是否已經(jīng)看過這些數(shù)據(jù),如果是的話,就會詢問之前是如何標(biāo)記這些數(shù)據(jù)的。
相反,認(rèn)知AI是基于概念的。我們可以嚴(yán)格的關(guān)系級別來描述概念,或者可以添加允許AI自我解釋的自然語言組件。認(rèn)知AI會對自己說:“我受過訓(xùn)練才能理解這類問題。你向我展示了一系列功能,所以我需要操縱那些與我接受過的訓(xùn)練相關(guān)的功能。”
認(rèn)知系統(tǒng)不會取代神經(jīng)網(wǎng)絡(luò),但確實(shí)解釋了神經(jīng)網(wǎng)絡(luò)的輸出并提供了敘述性的注釋。認(rèn)知AI所做出的決策是在清晰的審查跟蹤中提供出來的,人們可以理解這些決策,并查詢到更多的細(xì)節(jié)。這些審查線索解釋了AI給出建議背后的原因,以及證據(jù)、風(fēng)險(xiǎn)、信心和不確定性。
自上而下的可解釋性
可解釋性取決于誰需要解釋,對不同的人可能意味著不同的內(nèi)容。但是一般來說,如果風(fēng)險(xiǎn)很高的話,則需要更多的可解釋性。解釋可以是非常詳細(xì)的,顯示用于推導(dǎo)答案的各個(gè)數(shù)據(jù)和決策點(diǎn)??山忉屝赃€可以是為最終用戶編寫摘要報(bào)告的系統(tǒng)。強(qiáng)大的認(rèn)知AI系統(tǒng)可以根據(jù)查看信息的人員,以及信息的使用方式,自動調(diào)整解釋的深度和細(xì)節(jié)。
在大多數(shù)情況下,人類可視化決策過程的最簡單方法是使用決策樹,樹的頂部包含最少量的信息,底部包含最多的信息??紤]到這一點(diǎn),可解釋性通??梢苑譃樽陨隙禄蜃韵露?。
自上而下的方法適用于對細(xì)節(jié)不感興趣的最終用戶;他們只想知道答案是否正確。認(rèn)知AI可以預(yù)測計(jì)算機(jī)在當(dāng)前條件下會生成怎樣的預(yù)測。然后,技術(shù)用戶可以查看詳細(xì)信息,確定問題的原因,然后將其交給工程師進(jìn)行修復(fù)。自下而上的方法對于那些必須診斷和解決問題的工程師來說很有用。這些用戶可以查詢認(rèn)知AI,一直到?jīng)Q策樹的底部,并查看在頂部解釋AI結(jié)論的詳細(xì)信息。
可解釋的AI是關(guān)于人的
可解釋的人工智能始于人類。人工智能工程師可以與不同領(lǐng)域的專家展開合作,了解他們所在的領(lǐng)域,從算法/過程/探索角度研究他們的工作。工程師學(xué)到的東西被編碼成一個(gè)知識庫,讓認(rèn)知AI能夠驗(yàn)證其建議,并以人類可以理解的方式解釋它們得出的推理結(jié)果。
認(rèn)知AI是面向未來的。盡管政府對人工智能的監(jiān)管速度緩慢,但立法機(jī)構(gòu)正在迎頭趕上。歐盟從去年5月開始實(shí)施通用數(shù)據(jù)保護(hù)法規(guī)(GDPR),它賦予了消費(fèi)者在做出自動決策時(shí)的知情權(quán),解釋這些決定的權(quán)利,以及徹底選擇退出自動決策的權(quán)利?,F(xiàn)在采用可解釋AI的企業(yè)將為未來的法規(guī)遵從要求做好準(zhǔn)備。
AI不應(yīng)取代人類決策,它應(yīng)該幫助人類做出更好的決策。如果人們不相信人工智能系統(tǒng)的決策能力,這些系統(tǒng)就永遠(yuǎn)不會得到廣泛采用。為了讓人類信任AI,系統(tǒng)不能將所有秘密都鎖定在黑匣子里,XAI提供了這種解釋。
聯(lián)系客服