科技行者報道
來源:TheNextWeb
編譯:科技行者
提到人工智能,相信《西部世界》里的故事,讓人記憶難忘:
由一座巨型高科技以西部世界為主題的成人樂園,提供給游客殺戮與性欲的滿足。而當夜幕降臨,所有機器人的記憶被清除,一切歸零,第二天太陽升起,新一批游客入園。隨著接待員有了自主意識和思維,他們開始懷疑這個世界的本質(zhì),進而覺醒并反抗人類。
這部關注度極高的美劇中,人類和機器人之間的關系往往是引起觀眾最多思考的部分。作為一個人工智能領域的從業(yè)者,我也經(jīng)常被問到這個問題“Hey,《西部世界》成為現(xiàn)實還要多久?”
換言之,人和AI如何才能建立起一種信任?我相信像我一樣的研究人員們有必要承擔起責任,將人工智能引導到正確的發(fā)展道路上。正因為如此,我將在下文當中對承擔這方面責任的具體原因展開探討。
以信任為基礎進行設計
要信任一套人工智能系統(tǒng),我們必須對其決策充滿信心。我們需要了解某一決策是可靠且公平的,相關結論可以進行解釋,并不致造成傷害。我們需要保證決策結論不會被篡改,且系統(tǒng)本身安全可靠。
可靠性、公平性、可解釋性、穩(wěn)健性以及安全性是構成可信人工智能的基礎。然而,隨著我們不斷開發(fā)出新的人工智能系統(tǒng)與技術,我們用于對其進行評估的指標仍然主要集中在測試/訓練準確率、交叉驗證以及成本/效益比等方面?!?/span>
我們會對使用情況與實時效能進行監(jiān)控,但卻沒有針對信任問題進行設計、評估與監(jiān)控。要實現(xiàn)這一目標,我們必須首先將可信人工智能這一維度定義為科學目標,而后制定工具與方法,最終將其整合至人工智能解決方案的開發(fā)流程當中。
我們必須在準確率之外,立足更多維度對系統(tǒng)的效能進行衡量與報告。下面,我們將進一步探討這套新的、用于建立人工智能信任體系的“工具包”中的四大主要組成部分:
1.公平
人工智能系統(tǒng)的偏見問題近來在技術界與公眾當中引起了極大關注。如果我們希望鼓勵人工智能技術的推廣,那么首先需要確保其不會更加廣泛地散布本已存在于部分群體當中的偏見與沖突思維。 技術研究社區(qū)在理解偏見對于人工智能決策的影響方面取得了可喜的進展,且正在創(chuàng)建能夠檢測并緩解人工智能應用生命周期之內(nèi)偏見問題的方法,具體包括訓練模型,檢查偏見性數(shù)據(jù)、算法與服務,并在檢測到時處理偏見。雖然還有很多工作要做,但在人工智能解決方案的設計、測試、評估與部署層面,我們已經(jīng)能夠逐漸采用一系列原則實現(xiàn)偏見的檢查與緩解。
2. 穩(wěn)健性
對于大型數(shù)據(jù)集,神經(jīng)網(wǎng)絡已經(jīng)成為人工智能開發(fā)人員與數(shù)據(jù)科學家們的首選工具。雖然深度學習模型能夠表現(xiàn)出超越人類的分類與識別能力,但只要添加少量干擾因素(通常是人類所無法察覺的),這些模型往往很容易受到愚弄并做出錯誤的決策。
事實上,技術社區(qū)已經(jīng)投入了相當長的時間對軟件系統(tǒng)中暴露出的漏洞進行修復,而其也希望把同樣的能力引入人工智能領域。
最近,這一領域涌現(xiàn)出大量研究成果:不斷出現(xiàn)新的攻擊與防御機制; 快速發(fā)展的新型對抗性訓練方法旨在加強攻擊應對能力; 以及用于評估系統(tǒng)穩(wěn)健性的新型衡量標準等等。我們正在接近歷史發(fā)展的拐點,并將上述成本整合至通用型AI DevOps流程當中,借以保護并捍衛(wèi)以此為基礎構建而成的生產(chǎn)級神經(jīng)網(wǎng)絡與應用程序。
3. 對算法決策做出解釋
最近討論熱度極高的另一個重要問題,在于擔心機器學習系統(tǒng)成為另一種“黑匣子”。這種擔憂并非杞人憂天,事實證明多種最為先進的算法確實會生成難以解釋的決策結論。
目前不少最新研究工作提出了一些技術方案,能夠在不影響準確率的前提下為黑匣子模型提供可解釋性。其中具體包括模型的局部及全局可解釋性技術與預測技術,可產(chǎn)生可解釋模型的訓練技術,可視化神經(jīng)網(wǎng)絡中的信息流捕捉乃至解釋能夠傳授等方法。
我們必須將這些技術整合至人工智能模型開發(fā)與DevOps工作流程當中,從而為開發(fā)人員、企業(yè)工程師、用戶以及各領域專家提供必要的解釋性信息。
4. 安全性
人類對于技術的信任,源自我們對其工作原理的了解以及我們對其安全性與可靠性水平的評估。當我們踩下踏板時,我們相信汽車的制動器一定能夠發(fā)揮作用。而在對眼睛進行激光手術時,我們也相信系統(tǒng)會做出正確的決定與操作。
在這兩種情況下,由于系統(tǒng)訓練、詳盡測試、經(jīng)驗、安全措施與標準、最佳實踐以及消費者教育等工作的普及,人們已經(jīng)建立起系統(tǒng)不會犯錯的充分信心。事實上,其中不少安全設計原則也同樣適用于人工智能系統(tǒng)的設計; 當然,其中一部分需要進行調(diào)整,也有不少需要進行重新定義。
舉例來說,如何在復雜的環(huán)境中遇到前所未有的情況,我們可以將人工智能設計為需要人為干預。此外,正如我們會使用藥品與食品安全標簽或者在計算機硬件中添加安全數(shù)據(jù)表一樣,行業(yè)也有可能利用類似的方法對人工智能服務或者解決方案的功能與限制做出明確要求。
以敏捷且開放的方式開發(fā)人工智能
每當有新技術出現(xiàn)時,都會帶來新的挑戰(zhàn)、安全問題以及潛在風險。不過隨著技術的發(fā)展與成熟,這些問題都將逐步得到理解與解決。
舉例來說,在藥品剛剛誕生在世界上時,還沒有任何安全測試、質(zhì)量標準、兒童防護設計或者防調(diào)換包裝等事物。人工智能作為一項新的技術,自然也需要經(jīng)歷類似的演變。
最近幾年以來,人工智能的技術能力取得了非凡的進步,旨在開發(fā)出更好、更強大的人工智能方案的競賽正如火如荼地進行當中。然而,我們的努力不應僅僅投入到創(chuàng)建令人印象深刻的人工智能演示身上,而應在提升其智能化水平的同時,強調(diào)其為自身決策負責的能力。
在我們的探索過程當中,相信人工智能技術領域的研究人員、工程師以及設計師應該與來自各個學科的用戶、利益相關者以及專家開展合作,確保了解他們的需求,據(jù)此不斷評估算法決策帶來的影響、分享調(diào)查結果及見解,同時以開放及敏捷的方式主動解決問題。在我們的共同努力之下,相信人工智能解決方案將在用戶當中建立起愈發(fā)深厚的可靠性與信任感。
聯(lián)系客服