人工智能要想替人類完成很多讓大家放心的事情,有三個(gè)技術(shù)里程碑需要克服。
有多少人工,就有多少智能
在人工智能界,普遍可以聽到一個(gè)說(shuō)法:有多少人工,就有多少智能。
傳統(tǒng)上,人工智能被娛樂業(yè)塑造出一個(gè)錯(cuò)誤的形象,令我們以為它是在沒有人類輸入的情況下可以自如運(yùn)作的技術(shù)。難怪很多人震驚地發(fā)現(xiàn),谷歌助理依靠人類的幫助來(lái)提高自身對(duì)語(yǔ)音對(duì)話的理解,或者許多科技創(chuàng)業(yè)公司雇用人類工人來(lái)制作人工智能的功能原型和模仿品。
與傳統(tǒng)計(jì)算不同,人工智能可以在一系列尚未由人預(yù)編程的情況下作出決策。人工智能大部分是關(guān)于可以通過(guò)經(jīng)驗(yàn)學(xué)習(xí)和發(fā)展的系統(tǒng),通常用于執(zhí)行專業(yè)任務(wù),如駕駛、玩策略游戲或者開展投資。這也被稱為認(rèn)知計(jì)算,需要通過(guò)輸入大量數(shù)據(jù)進(jìn)行培訓(xùn)。
現(xiàn)在我們號(hào)稱進(jìn)入了大數(shù)據(jù)時(shí)代,然而數(shù)據(jù)多并不意味著質(zhì)量高,沒有標(biāo)注的數(shù)據(jù)可用性非常低。數(shù)據(jù)標(biāo)注是重復(fù)性的工作,但它是大多數(shù)人工智能應(yīng)用的起點(diǎn)。人工智能打著更好地把人從重復(fù)性的工作中解放出來(lái)的旗號(hào),但現(xiàn)在存在一個(gè)悖論:要先通過(guò)人類的大量重復(fù)性工作才能讓機(jī)器實(shí)現(xiàn)智能。
機(jī)器學(xué)習(xí)需要喂給機(jī)器大量的數(shù)據(jù),而這些數(shù)據(jù)大部分是需要人工標(biāo)注的,這在機(jī)器學(xué)習(xí)當(dāng)中叫做“監(jiān)督學(xué)習(xí)”(supervised learning),即根據(jù)輸入-輸出的樣本對(duì)子,學(xué)習(xí)一個(gè)將輸入映射到輸出的函數(shù)或模式,并依此模式推測(cè)新的實(shí)例。
舉例來(lái)說(shuō),要寫一個(gè)機(jī)器學(xué)習(xí)算法,讓它能夠在網(wǎng)上幫我找到符合我口味的衣服,就需要訓(xùn)練一個(gè)能識(shí)別某種服裝的程序。首先需要的是數(shù)據(jù),因?yàn)楸仨毥o機(jī)器學(xué)習(xí)算法標(biāo)注一些樣本。訓(xùn)練者先搜集很多圖片,然后把需要的標(biāo)出正例。比如把所有襯衣圖片標(biāo)注出來(lái),其他未被標(biāo)注襯衣的,就是負(fù)例。機(jī)器會(huì)通過(guò)這些樣本的標(biāo)注,知道哪些是襯衣,哪些不是襯衣,哪些是主人想要的,哪些不是主人想要的。假如提出更高的要求,讓程序識(shí)別淺色的襯衣,就要進(jìn)一步把淺色襯衣的圖片再標(biāo)注出來(lái),這樣機(jī)器就會(huì)知道那些淺色的襯衣是主人更想要的。這樣的條件可以不斷趨向復(fù)雜,例如讓機(jī)器識(shí)別帶條紋的淺色襯衣,而所有這些對(duì)于數(shù)據(jù)的進(jìn)一步處理,都需要人工來(lái)解決。
人的標(biāo)注工作完成之后,就可以訓(xùn)練機(jī)器學(xué)習(xí)算法,讓它不斷去看圖片,并對(duì)所看過(guò)的圖片加以總結(jié)。然后它自己總結(jié)出一個(gè)算法框架,知道大概往哪個(gè)方向?qū)W習(xí)。機(jī)器學(xué)習(xí)的目標(biāo)就是利用人們輸入的數(shù)據(jù),讓自身的錯(cuò)誤識(shí)別率達(dá)到最低。這個(gè)目標(biāo)達(dá)成之后,機(jī)器就學(xué)成出師,可以為人工作了。
盡管數(shù)據(jù)標(biāo)注一類的工作會(huì)逐漸為人工智能所接手,但放眼未來(lái),人工智能將始終需要人類的投入和專業(yè)知識(shí),從而以符合道德、負(fù)責(zé)和安全的方式充分發(fā)揮其潛力。例如,在社交媒體中,需要人類對(duì)算法的極端化予以糾正;在醫(yī)學(xué)上,人類和機(jī)器的共同努力將產(chǎn)生比任何一方單獨(dú)所能實(shí)現(xiàn)的更大效果;在自動(dòng)駕駛等領(lǐng)域,人工智能的優(yōu)越性是訓(xùn)練的結(jié)果,然而一旦發(fā)生了人工智能未經(jīng)訓(xùn)練而不得不處理的事情,由人工智能驅(qū)動(dòng)的優(yōu)勢(shì)就會(huì)被抹去。當(dāng)這種情況發(fā)生時(shí),人工智能的處理能力必須讓位于人類的創(chuàng)造力和適應(yīng)能力。
所以,人工智能必須處理好人工與智能的關(guān)系。最終,只要有新的應(yīng)用讓人工智能學(xué)習(xí),有新的任務(wù)讓它掌握,人工智能就始終需要人類的投入。
學(xué)習(xí)如何學(xué)習(xí)
“智能”這一術(shù)語(yǔ)的使用常常導(dǎo)致人們對(duì)AI的能力和擬人化風(fēng)險(xiǎn)的誤解(這里的擬人化,是指將人類特征和行為分配給非人類事物)。今天可用的大多數(shù)AI技術(shù)都是根據(jù)特定目標(biāo)學(xué)習(xí)或優(yōu)化其活動(dòng),因此只能按照所傳授的內(nèi)容進(jìn)行操作。其能力的大小,反映了培訓(xùn)的數(shù)據(jù)及培訓(xùn)的質(zhì)量,以及AI流程的設(shè)計(jì)情況。通常,仍會(huì)需要人工處理異常情況。
這意味著AI目前的形式很狹窄,只能專門用于特定的應(yīng)用程序,它所遵循的流程和程序是不可遷移的。Google DeepMind的AI應(yīng)用程序AlphaGo專攻圍棋,它和它的后繼版本使用蒙特卡洛樹形搜索算法,根據(jù)之前通過(guò)機(jī)器學(xué)習(xí)獲得的知識(shí),特別是通過(guò)人工神經(jīng)網(wǎng)絡(luò)(一種深度學(xué)習(xí)方法)的廣泛訓(xùn)練,從人類和計(jì)算機(jī)棋譜中找到自己的棋步。這個(gè)神經(jīng)網(wǎng)絡(luò)提高了樹狀搜索的強(qiáng)度,從而在下一次迭代中產(chǎn)生更強(qiáng)的棋步選擇。從2015年到2017年,AlphaGo擊敗數(shù)位頂尖圍棋人類選手,先后被韓、中圍棋協(xié)會(huì)授予職業(yè)九段榮譽(yù),然而它在國(guó)際象棋中甚至無(wú)法擊敗普通人類玩家。
隨后,AlphaGo的繼任者AlphaZero做到了舉一反三:它完全依靠自學(xué),只需提供基本的游戲規(guī)則,人類和人類生成的數(shù)據(jù)都不構(gòu)成其自我學(xué)習(xí)過(guò)程的一部分。在短短幾個(gè)小時(shí)的自我游戲中,它就達(dá)到了人類需要 1500 年才能達(dá)到的技能水平。自學(xué)成才的AlphaZero對(duì)早期競(jìng)爭(zhēng)版本的AlphaGo取得了100-0的勝利,目前被認(rèn)為是世界上最好的圍棋選手。同時(shí),除了圍棋,它也會(huì)下象棋與國(guó)際象棋。
DeepMind的AI新作Player of Games(PoG)是第一個(gè)在完全信息游戲以及不完全信息游戲中都能實(shí)現(xiàn)強(qiáng)大性能的AI算法(完全信息游戲如圍棋、象棋等棋盤游戲,不完全信息游戲如撲克等)。這是向能夠在任意環(huán)境中學(xué)習(xí)的真正通用AI算法邁出的重要一步。PoG使用了較少的領(lǐng)域知識(shí),通過(guò)自對(duì)弈(self-play)、搜索和博弈論推理來(lái)實(shí)現(xiàn)強(qiáng)大的性能。
DeepMind為何長(zhǎng)期以來(lái)一直投資于游戲類的人工智能系統(tǒng)?該實(shí)驗(yàn)室的理念是,游戲雖然缺乏明顯的商業(yè)應(yīng)用,但卻構(gòu)成對(duì)認(rèn)知和推理能力的獨(dú)特的相關(guān)挑戰(zhàn)。這使它們成為人工智能進(jìn)展的有用基準(zhǔn)。近幾十年來(lái),游戲已經(jīng)催生了為計(jì)算機(jī)視覺、自動(dòng)駕駛汽車和自然語(yǔ)言處理提供動(dòng)力的自學(xué)的人工智能。
現(xiàn)實(shí)生活中,擁堵地區(qū)的路線規(guī)劃、合同談判甚至與客戶的互動(dòng)等任務(wù),都涉及到考慮人們的偏好如何重合和沖突,并達(dá)成相應(yīng)的妥協(xié),就像在游戲中一樣。即使人工智能系統(tǒng)是自利的,它們也可能通過(guò)協(xié)調(diào)、合作和在人群或組織之間的互動(dòng)而獲益。那么,像PoG這樣能夠推理出他人的目標(biāo)和動(dòng)機(jī)的系統(tǒng),可以為致力于成功協(xié)作的人工智能鋪平道路,包括處理圍繞信任而產(chǎn)生的問(wèn)題。
當(dāng)人工智能開始變得真正聰明并能夠?qū)W習(xí)未被教授的行為時(shí),會(huì)對(duì)人類認(rèn)知產(chǎn)生什么影響?在這個(gè)本質(zhì)上是加速選擇的過(guò)程中,倫理學(xué)的作用是什么?
不知之不知
“未知的未知”(Unknown unknown)是前美國(guó)國(guó)防部長(zhǎng)唐納德·拉姆斯菲爾德(Donald Rumsfeld)在2002年2月回應(yīng)記者提問(wèn)時(shí)的名言。
2002年,美國(guó)以伊拉克政府擁有大殺傷力武器、并支援恐怖分子為由打算與其開戰(zhàn)。同年2月12日,時(shí)任國(guó)防部部長(zhǎng)拉姆斯菲爾德被問(wèn)及有關(guān)的證據(jù)時(shí),他解釋道:“據(jù)我們所知,有'已知的已知’,有些事,我們知道我們知道;我們也知道,有'已知的未知’,也就是說(shuō),有些事,我們現(xiàn)在知道我們不知道。但是,同樣存在'未知的未知’——有些事,我們不知道我們不知道?!?/span>
在人工智能開發(fā)當(dāng)中,同樣存在“已知的未知”和“未知的未知”?!耙阎奈粗笔侵改J讲荒艽_定正確分類的例子。其解決方案是,在不確定的例子上從人們那里獲得新標(biāo)簽。例如,如果一個(gè)模式不能確定一張照片的主體是否是一只貓,就會(huì)要求人去驗(yàn)證;但如果系統(tǒng)確定的話,就不會(huì)要求人去驗(yàn)證。雖然在這方面還有改進(jìn)的余地,但令人欣慰的是,模式的置信度與它的表現(xiàn)相關(guān),人們可以認(rèn)清模式所不知道的東西有哪些。
另一方面,“未知的未知”是指模式對(duì)其答案有信心,但實(shí)際上是錯(cuò)誤的。對(duì)人來(lái)說(shuō),這就產(chǎn)生了一個(gè)難題:需要知道人工智能算法何時(shí)工作,何時(shí)不工作。雖然電影推薦假如不是那么準(zhǔn)確可能并不要緊,但一旦一個(gè)算法在自動(dòng)駕駛汽車或醫(yī)療應(yīng)用程序中表現(xiàn)不佳,其結(jié)果可能是毀滅性的。
人工智能系統(tǒng)的內(nèi)部工作往往不透明,人類很難理解人工智能學(xué)習(xí)系統(tǒng)如何得出他們的結(jié)論。套用拉姆斯菲爾德的形容,這就是典型的“未知的未知”。所以,人工智能的一個(gè)必須克服的技術(shù)挑戰(zhàn)是與人類自己相比的理解差距。為了解決這個(gè)問(wèn)題,設(shè)計(jì)者和觀察者已經(jīng)討論過(guò)在AI系統(tǒng)中需要一定程度的解釋邏輯,以便檢查錯(cuò)誤并讓人類學(xué)習(xí)和理解。
然而,人工智能系統(tǒng)復(fù)雜性的挑戰(zhàn)并不容易克服。事實(shí)證明,機(jī)器“知道”得越多,我們就越不了解它們。用于人工智能的深度學(xué)習(xí)方法涉及從簡(jiǎn)單的構(gòu)件中創(chuàng)建復(fù)雜的、分層的表征,以解決高層次的問(wèn)題。網(wǎng)絡(luò)在層次結(jié)構(gòu)的初始級(jí)別學(xué)習(xí)一些簡(jiǎn)單的東西,然后將信息發(fā)送到下一個(gè)級(jí)別,在那里信息被組合成更復(fù)雜的東西。這個(gè)過(guò)程持續(xù)進(jìn)行,每一級(jí)都從上一級(jí)收到的輸入中建立。
與此同時(shí),層數(shù)越深,優(yōu)化算法就越難。最終,它們變得如此困難,以至于數(shù)據(jù)科學(xué)家無(wú)法解釋它們是如何工作的。在某一點(diǎn)上,用于深度神經(jīng)網(wǎng)絡(luò)的算法以某種方式,奇跡般地產(chǎn)生了準(zhǔn)確的結(jié)果——但科學(xué)家和工程師并不完全了解結(jié)果如何產(chǎn)生的。人工智能使機(jī)器能夠進(jìn)行預(yù)測(cè),但很難讓計(jì)算機(jī)解釋它是如何得出結(jié)論的。這不僅提出了信任問(wèn)題,而且還產(chǎn)生了潛在的法律和責(zé)任問(wèn)題。在人工智能獲得全力推進(jìn)之前,這方面有很多東西需要探索和考慮。
人機(jī)共存,避免圖靈陷阱
在過(guò)去十年或更長(zhǎng)時(shí)間里,討論人工智能時(shí)很少不與人類能力相比較。對(duì)許多人來(lái)說(shuō),隨著人工智能的發(fā)展,它對(duì)人類產(chǎn)生了存在威脅,不僅僅關(guān)乎我們的就業(yè)能力,甚至涉及我們的生存本身。
斯坦福大學(xué)學(xué)者埃里克·布林約爾松(Erik Brynjolfsson)的研究認(rèn)為,這種比較是無(wú)益的,現(xiàn)實(shí)中更有可能看到人類和機(jī)器以相互補(bǔ)充的方式一起工作。
1950年,阿蘭·圖靈(Alan Turing)提出了一個(gè)測(cè)試機(jī)器是否智能的方法:機(jī)器能否很好地模仿人類,以至于它對(duì)問(wèn)題的回答與人類無(wú)異?從那時(shí)起,創(chuàng)造出與人類智能相匹配的智能就或隱或現(xiàn)地成為成千上萬(wàn)的研究人員、工程師和企業(yè)家的目標(biāo)。類似人類的人工智能(HLAI,human-like artificial intelligence)的好處包括生產(chǎn)力的飆升、休閑的增加等,也許最深刻的是對(duì)我們自己思想的更好理解。但并不是所有類型的人工智能都像人一樣——事實(shí)上,許多最強(qiáng)大的系統(tǒng)與人類非常不同。
過(guò)度關(guān)注開發(fā)和部署HLAI會(huì)使我們陷入一個(gè)陷阱,不妨稱之為“圖靈陷阱”。隨著機(jī)器成為人類勞動(dòng)的更好替代品,工人們失去了經(jīng)濟(jì)和政治上的討價(jià)還價(jià)能力,變得越來(lái)越依賴那些控制技術(shù)的人。相反,當(dāng)人工智能專注于增強(qiáng)人類而不是模仿人類時(shí),人類保留了堅(jiān)持分享所創(chuàng)造價(jià)值的權(quán)力。更重要的是,增強(qiáng)型人工智能創(chuàng)造了新的能力以及新的產(chǎn)品和服務(wù),最終產(chǎn)生的價(jià)值遠(yuǎn)遠(yuǎn)超過(guò)了單純的模仿型人工智能。雖然這兩種類型的人工智能都能帶來(lái)巨大的好處,但目前在技術(shù)專家、企業(yè)高管和政策制定者中,存在著對(duì)模仿型而不是增強(qiáng)型的過(guò)度激勵(lì)。
盡管復(fù)制人類智能是一個(gè)誘人的愿景,但它同時(shí)也是個(gè)限制性的愿景。畢竟,時(shí)至今日,在人工智能可以做的事情上所取得的激動(dòng)人心的進(jìn)展,仍然主要局限于一個(gè)相對(duì)狹窄的領(lǐng)域,即對(duì)人類所能做的事情加以自動(dòng)化。而那些可以被增強(qiáng)的任務(wù)的市場(chǎng)則要廣闊得多。例如,今天大量應(yīng)用中出現(xiàn)的人工智能助手就是很好的例子。
人工智能助手已變得相當(dāng)擅長(zhǎng)做許多關(guān)鍵而又令人難以置信的繁瑣工作。例如,電子郵件過(guò)濾器和產(chǎn)品推薦引擎現(xiàn)在在幫助我們選擇我們想要的東西方面相當(dāng)有效,而流程自動(dòng)化工具也越來(lái)越有能力挑起平凡任務(wù)的重?fù)?dān)。在一些領(lǐng)域,記筆記和抄寫是至關(guān)重要但又非常費(fèi)力的工作,同時(shí)也吸走了時(shí)間和快樂,完全可以交給人工智能助手。通過(guò)處理這些較低級(jí)別的任務(wù),就能讓人類騰出手來(lái)做我們最擅長(zhǎng)的事情。換句話說(shuō),人工智能在幫助我們更快、更有效地完成工作。
增強(qiáng)功能也許在醫(yī)療保健等領(lǐng)域最有潛力,這些領(lǐng)域的人員短缺是隨處可見的,而且老齡化社會(huì)的需求也越來(lái)越大。人工智能已經(jīng)被用來(lái)提供人類不可能做到的全天候監(jiān)控。
更重要的是,如果我們能夠換個(gè)思路轉(zhuǎn)變我們的心態(tài),人工智能可以釋放出一波創(chuàng)新和生產(chǎn)力的改善,使社會(huì)中的所有人受益。
以酒店業(yè)為例,即使我們正處于一個(gè)勞動(dòng)力危機(jī)之中,簡(jiǎn)單地考慮用機(jī)器人或其他形式的技術(shù)來(lái)填補(bǔ)這些缺口也不是正確的做法。相反,應(yīng)該利用這個(gè)機(jī)會(huì)重新思考酒店如何做事,以及如何利用技術(shù)來(lái)處理更多的常規(guī)任務(wù),從而釋放出員工來(lái)真正為客戶增加價(jià)值。
因此,盡管將自動(dòng)化視為降低成本的可靠途徑是很誘人的,但企業(yè)應(yīng)該著眼于更大的前景,因?yàn)樵鰪?qiáng)型人工智能提供了更大的經(jīng)濟(jì)效益。它所帶來(lái)的好處更有可能在社會(huì)上廣泛傳播,因?yàn)樽詣?dòng)化更容易導(dǎo)致裁員和混亂,就像過(guò)去引進(jìn)的許多技術(shù)那樣。
不平等是我們這個(gè)時(shí)代最緊迫的問(wèn)題之一,而且有合理的證據(jù)表明,技術(shù)對(duì)社會(huì)當(dāng)中的不平等已經(jīng)產(chǎn)生了影響。人工智能的目標(biāo)應(yīng)該是使獲得最佳服務(wù)和機(jī)會(huì)的機(jī)會(huì)均等化,而不是使之離我們?cè)絹?lái)越遠(yuǎn)。再也不可以接受的是,技術(shù)的所有好處都以犧牲社會(huì)其他人的利益為代價(jià)涓滴到資本所有者,特別是數(shù)字資本的所有者身上。
事實(shí)上,這種人工智能給相對(duì)少數(shù)人帶來(lái)繁榮、同時(shí)造成社會(huì)其他人權(quán)力喪失的過(guò)程,就是斯坦福大學(xué)研究人員所說(shuō)的“圖靈陷阱”。雖然我們目前還沒有落入這個(gè)陷阱,但重要的是,在我們還有機(jī)會(huì)的時(shí)候,努力在人工智能的發(fā)展道路上確保避開它。由于人工智能仍然處于相對(duì)早期的階段,現(xiàn)在正是這樣做的時(shí)機(jī),并去積極想象一個(gè)人類仍然不可或缺的技術(shù)未來(lái)。
聯(lián)系客服