中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開APP
userphoto
未登錄

開通VIP,暢享免費電子書等14項超值服

開通VIP
谷歌可解釋人工智能白皮書,27頁pdf,Google AI Explainability White...
userphoto

2019.12.13

關注

【導讀】近幾年,隨著人工智能的迅速發(fā)展,人工智能對各行各業(yè)也產(chǎn)生了深遠的影響。圍繞人工智能建立的系統(tǒng)已經(jīng)對醫(yī)療、交通、刑事司法、金融風險管理和社會的許多其他領域產(chǎn)生了巨大的價值。然而,人工智能系統(tǒng)仍然具有很多問題,為了保證人工智能系統(tǒng)的有效性和公平性,需要我們對人工智能具有深刻的理解和控制能力。所以,今天專知小編給大家?guī)淼氖?strong>Google可解釋人工智能白皮書《AI Explainability Whitepaper》,總共27頁pdf,主要介紹谷歌的AI平臺上的AI的可解釋性。

機器學習發(fā)展

人工智能的迅速發(fā)展導致現(xiàn)在我們現(xiàn)在所研究和使用的AI模型越來越復雜化,從手工規(guī)則和啟發(fā)法線性模型決策樹再到集成和深度模型,最后再到最近的元學習模型。

這些變化已經(jīng)導致了多個維度上規(guī)范的變化:

  • 可表達性(Expressiveness),使我們能夠在越來越多的領域(如預測、排名、自主駕駛、粒子物理、藥物發(fā)現(xiàn)等)擬合各種各樣的功能。

  • 通用性(Versatility),解鎖數(shù)據(jù)模式(圖像,音頻,語音,文本,表格,時間序列等),并啟用聯(lián)合/多模式應用。

  • 適應性(Adaptability ),通過遷移學習和多任務學習來適應小數(shù)據(jù)狀態(tài)。

  • 效率(Efficiency ),通過自定義優(yōu)化硬件,如gpu和TPUs,使研究人員可以更快地訓練更大更復雜更強大的模型。

然而,這些更復雜更強大的模型也變得越來越不透明,再加上這些模型基本上仍然是圍繞相關性和關聯(lián)建立的,這導致了以下幾個挑戰(zhàn)和問題:

  • 虛假的關聯(lián)性(Spurious correlations),這往往會妨礙模型的泛化能力,導致模型在現(xiàn)實場景下效果很差。

  • 模型的調(diào)試性和透明性的缺失(Loss of debuggability and transparency),這會導致模型難以調(diào)試和改進,同時這種透明度的缺乏阻礙了這些模型的應用,尤其是在受到監(jiān)管的行業(yè),如銀行和金融或醫(yī)療保健行業(yè)。

  • 代理目標(Proxy objectives),這會導致模型在線下的效果與實際場景下的效果存在很大的出入。

  • 模型的不可控(Loss of control)

  • 不受歡迎的數(shù)據(jù)放大(Undesirable data amplification)

AI方法有:

  • 簡單(基于規(guī)則且可解釋)

  • 復雜的(不是可解釋的)

根據(jù)應用不同,我們有明確的倫理、法律和商業(yè)理由來確保我們能夠解釋人工智能算法和模型如何工作。不幸的是,普通人可以解釋的簡單人工智能方法缺乏優(yōu)化人工智能決策的準確性。許多提供最佳精度的方法,如ANN(人工神經(jīng)網(wǎng)絡),都是復雜的模型,其設計并不是為了便于解釋。

如圖所示,人工智能方法的準確性和可解釋性之間存在著一種相反的關系。兩者之間的負相關關系如下: 解釋性越大,準確性越低,反之亦然。

一些不太精確的模型仍然很受歡迎,因為它們具有可模擬性(因此人類可以重復它們)、完全可解釋的計算過程(算法透明性)以及模型的每個部分都有一個直觀的解釋(可分解性)。

隨著深度學習和強化學習的普及,對復雜神經(jīng)網(wǎng)絡的解釋需求激增,推動了XAI工具的發(fā)展。最終目標: 實現(xiàn)負責任的、可追溯的、可理解的AIs

可解釋人工智能 XAI

這些挑戰(zhàn)突出了對人工智能的可解釋性的需求,以使人們可控的發(fā)展人工智能。

圍繞人工智能建立的系統(tǒng)將影響并在許多情況下重新定義醫(yī)療干預、自動交通、刑事司法、金融風險管理和社會的許多其他領域。然而,考慮到上一節(jié)所強調(diào)的挑戰(zhàn),這些人工智能系統(tǒng)的有效性和公平性將取決于我們理解、解釋和控制它們的能力。

自從幾十年前專家系統(tǒng)出現(xiàn)以來,XAI(可解釋的AI)領域已經(jīng)復蘇。本文對一種嚴謹?shù)目茖W解釋的機器學習,Doshi-Velez和Kim定義為“解釋性或呈現(xiàn)在人類可以理解的術語的能力“利用韋氏字典的定義“解釋”,它適應人類和智能代理之間的交互。

谷歌的人工智能可解釋白皮書(AI Explainability Whitepaper)是谷歌云的人工智能解釋產(chǎn)品的技術參考。它的目標用戶是負責設計和交付ML模型的模型開發(fā)人員和數(shù)據(jù)科學家。谷歌云的可解釋產(chǎn)品的目標是讓他們利用對AI解釋性來簡化模型開發(fā),并解釋模型的行為。

白皮書的目錄:

  • 特征歸因(Feature Attributions)

  • 特征歸因的限制和使用注意事項(Attribution Limitations and Usage Considerations)

  • 解釋模型元數(shù)據(jù)(Explanation Model Metadata)

  • 使用What-if工具的可視化(Visualizations with the What-If Tool)

  • 使用范例(Usage Examples)

參考鏈接:

https://cloud.google.com/ml-engine/docs/ai-explanations/overview

本站僅提供存儲服務,所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權內(nèi)容,請點擊舉報。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
人工智能已經(jīng)幫助世界各地的研究人員推斷遠遠超出人類認知能力范圍的關系
集大成者!可解釋人工智能(XAI)研究最新進展萬字綜述論文: 概念體系機遇和挑戰(zhàn)—構建負責任的人工智...
打開AI的黑盒子:模型可解釋性的現(xiàn)狀、應用前景與挑戰(zhàn)
肖仰華 | 基于知識圖譜的可解釋人工智能:機遇與挑戰(zhàn)
國內(nèi)首份可解釋AI報告!值得收藏!
打開人工智能“黑盒” 華夏基金首席數(shù)據(jù)官參與撰寫書籍上市
更多類似文章 >>
生活服務
熱點新聞
分享 收藏 導長圖 關注 下載文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!

聯(lián)系客服