來(lái)源:36kr
人工智能可高效開展實(shí)際任務(wù),如給照片貼標(biāo)簽、理解口頭和書面自然語(yǔ)言、甚至幫助確診等。
據(jù)國(guó)外媒體報(bào)道,人工智能如今無(wú)處不在。從決定購(gòu)買哪本書、訂哪一班航班,到申請(qǐng)工作、獲取銀行貸款,我們生活的各個(gè)方面都與人工智能有著或多或少的聯(lián)系。
如今,這類事情主要由復(fù)雜的軟件系統(tǒng)做決定。人工智能在過(guò)去幾年中取得了巨大進(jìn)展,有望從許多方面改善我們的生活。
幾年來(lái),人工智能的崛起已成了必然趨勢(shì)。人工智能初創(chuàng)公司收到了大筆投資。許多現(xiàn)有的科技公司,如亞馬遜、Facebook和微軟等巨頭,都已創(chuàng)建了研究實(shí)驗(yàn)室。可以毫不夸張地說(shuō),軟件如今就代表著“人工智能”。
有些人預(yù)言,人工智能將掀起一場(chǎng)比因特網(wǎng)更加猛烈的變革。而至于機(jī)器帶來(lái)的迅速變化將對(duì)人類產(chǎn)生怎樣的影響,幾乎所有科技人員都將道德倫理視為關(guān)注重點(diǎn)。
對(duì)于谷歌研究帶頭人和機(jī)器學(xué)習(xí)的領(lǐng)軍人物皮特·諾維格(Peter Norvig)而言,雖然由數(shù)據(jù)驅(qū)動(dòng)的人工智能技術(shù)近期取得了一系列成功,但關(guān)鍵問(wèn)題在于,我們必須弄清如何使這些新系統(tǒng)造福整個(gè)社會(huì),而不僅是該系統(tǒng)的控制者。“人工智能可高效開展實(shí)際任務(wù),如給照片貼標(biāo)簽、理解口頭和書面自然語(yǔ)言、甚至幫助確診等?!彼赋?,“而我們必須確保所有人都能從中受益。”
最大的問(wèn)題在于,這些軟件往往極為復(fù)雜,無(wú)法參透人工智能系統(tǒng)采取某一行動(dòng)的原因。如今的人工智能以機(jī)器學(xué)習(xí)技術(shù)為基礎(chǔ),導(dǎo)致我們無(wú)法透過(guò)表面、看個(gè)究竟。因此我們只能姑且信任它們。但我們必須找出新方法,有效監(jiān)控和審查人工智能參與的系統(tǒng)。
哈佛法學(xué)院網(wǎng)絡(luò)法教授喬納森·齊特林(Jonathan Zittrain)認(rèn)為,隨著計(jì)算機(jī)系統(tǒng)日趨復(fù)雜,人們或許將難以對(duì)人工智能系統(tǒng)進(jìn)行密切監(jiān)視?!半S著我們的計(jì)算機(jī)系統(tǒng)越來(lái)越復(fù)雜、聯(lián)系越來(lái)越緊密,人類的自主控制權(quán)也不斷減少,這使我很擔(dān)心?!彼硎?,“如果我們‘放手不管,忘到腦后”,不考慮道德倫理問(wèn)題,計(jì)算機(jī)系統(tǒng)的演化或許會(huì)令我們懊悔不已?!?/p>
其他人也表達(dá)了同樣的憂慮?!拔覀?nèi)绾闻袛噙@些系統(tǒng)是否安全呢?”美國(guó)杜克大學(xué)人類與自主實(shí)驗(yàn)室主管米西·康明斯(Missy Cummings)指出。她曾是美國(guó)海軍首批戰(zhàn)斗機(jī)飛行員之一,如今是一名無(wú)人機(jī)專家。
人工智能需要受到監(jiān)視,但具體做法尚不清楚?!澳壳拔覀冞€未就監(jiān)視方法達(dá)成統(tǒng)一意見,”康明斯表示,“在缺乏系統(tǒng)測(cè)試的行業(yè)標(biāo)準(zhǔn)的情況下,這些技術(shù)很難得到大規(guī)模應(yīng)用?!?/p>
隨著人工智能的發(fā)展,機(jī)器人可以勝任更加復(fù)雜的工作。例如,日本的一家商店采用了機(jī)器人“導(dǎo)購(gòu)”。
但當(dāng)今世界日新月異,監(jiān)管機(jī)構(gòu)往往落后一步。在刑事司法系統(tǒng)和醫(yī)療保健等重要領(lǐng)域,許多公司已經(jīng)開始探索人工智能在假釋和診斷等問(wèn)題上的決策能力。但如果將決策權(quán)交予機(jī)器,我們就面臨著失控的風(fēng)險(xiǎn)——這些系統(tǒng)真能在每起案例中做出正確的判斷嗎?
微軟研發(fā)部門的主要研究員丹娜·博伊德(Danah Boyd)稱,我們必須嚴(yán)肅考慮此類系統(tǒng)附含的價(jià)值,還要確定最終擔(dān)責(zé)方。“監(jiān)管機(jī)構(gòu)、公民社會(huì)和社會(huì)理論學(xué)家都強(qiáng)力要求這些技術(shù)公平公正、符合道義,但這些理念仍然含糊不清。”
道德問(wèn)題對(duì)就業(yè)影響頗深。隨著人工智能的發(fā)展,機(jī)器人可以勝任更加復(fù)雜的工作,能夠取代越來(lái)越多的人類工人。例如,中國(guó)富士康集團(tuán)已經(jīng)宣布將用機(jī)器人取代六萬(wàn)名工廠工人。福特汽車在德國(guó)科隆的工廠也啟用了機(jī)器人,與人類工人并肩工作。
此外,如果不斷提升的自動(dòng)化水平對(duì)就業(yè)產(chǎn)生了重大沖擊,便會(huì)影響人類心理健康?!叭松囊饬x來(lái)自三個(gè)方面:有意義的人際關(guān)系,充滿激情的興趣愛(ài)好、以及有意義的工作?!泵绹?guó)前總統(tǒng)奧巴馬醫(yī)療顧問(wèn)、生物倫理學(xué)家伊齊基爾·伊曼努爾(Ezekiel Emanuel)指出,“有意義的工作是自我認(rèn)同感的重要組成部分?!彼€表示,在工廠倒閉率和員工失業(yè)率較高的地區(qū),居民自殺、濫用藥物和患抑郁癥的概率也較高。
因此,社會(huì)需要更多的倫理學(xué)家?!肮井?dāng)然會(huì)跟隨市場(chǎng)潮流行事,這不是壞事,但我們不能指望他們負(fù)倫理責(zé)任?!甭槭±砉W(xué)院法律與倫理專家凱特·達(dá)爾林(Kate Darling)指出,“我們應(yīng)當(dāng)將監(jiān)管措施落實(shí)到位。每當(dāng)有新技術(shù)出現(xiàn),我們都會(huì)開展這一討論,研究應(yīng)對(duì)策略?!?/p>
許多工廠中,機(jī)器人已經(jīng)開始與人類并肩工作。有些人認(rèn)為這會(huì)使工人的心理健康受到影響。
達(dá)爾林指出,谷歌等許多知名公司已經(jīng)成立了倫理委員會(huì),監(jiān)控人工智能技術(shù)的研發(fā)和部署。但這一做法還應(yīng)進(jìn)一步普及?!拔覀儫o(wú)意阻止創(chuàng)新,但眼下也許我們就該成立這樣的機(jī)構(gòu)。”
有關(guān)谷歌倫理委員會(huì)的成員和工作細(xì)節(jié),我們還知之甚少。但去年九月,F(xiàn)acebook、谷歌和亞馬遜達(dá)成合作,旨在為人工智能為安全和隱私造成的挑戰(zhàn)提出解決方案。一家名為OpenAI的組織致力于研發(fā)和推廣造福全民的開源人工智能系統(tǒng)。“機(jī)器學(xué)習(xí)必須得到廣泛研究,并通過(guò)公開出版物和開源代碼傳播,這樣我們才能實(shí)現(xiàn)福利共享?!惫雀柩芯繂T諾維格指出。
為制定行業(yè)與倫理標(biāo)準(zhǔn)、充分了解當(dāng)前面臨的風(fēng)險(xiǎn),需要倫理學(xué)家、科技人員和企業(yè)領(lǐng)導(dǎo)人共同參與。這一問(wèn)題涉及如何駕馭人工智能、使人類更加擅長(zhǎng)自己最拿手的領(lǐng)域?!拔覀兏鼞?yīng)關(guān)注如何利用相應(yīng)技術(shù)幫助人類思考和決策、而非將人類取而代之?!饼R特林指出。
人工智能的道德代碼應(yīng)該如何編寫?
如果預(yù)設(shè)代碼對(duì)AI所有者不利會(huì)怎樣呢?
人工智能正在以幾何級(jí)數(shù)的速度在發(fā)展,雖然對(duì)我們生活產(chǎn)生大規(guī)模深遠(yuǎn)影響的AI技術(shù)尚未正式部署,但是提前對(duì)AI引發(fā)的社會(huì)與倫理問(wèn)題進(jìn)行探討是必要的。不幸的是,此前公眾對(duì)人工智能產(chǎn)生的道德倫理問(wèn)題并沒(méi)有太多太廣泛的討論。David Newhoff總結(jié)了最近以電車難題為標(biāo)志的AI倫理問(wèn)題的相關(guān)事件,并分析了不同思路的問(wèn)題。從目前來(lái)看,無(wú)論是功利主義還是道德決定論,似乎都解決不了AI的道德代碼問(wèn)題,也許我們需要道德虛無(wú)主義?讓機(jī)器像人一樣在千鈞一發(fā)的情況下做出基于直覺(jué)的決定?
隨著人工智能從科幻小說(shuō)變成大眾科學(xué),領(lǐng)先的技術(shù)學(xué)家與科學(xué)家正在向自己提出如何編寫道德代碼的問(wèn)題。報(bào)道最廣泛的道德困境是無(wú)人車與所謂的電車難題。這個(gè)假想挑戰(zhàn)的內(nèi)容大致是:一個(gè)瘋子把五個(gè)無(wú)辜的人綁在電車軌道上。一輛失控的電車朝他們駛來(lái),并且片刻后就要碾壓到他們。幸運(yùn)的是,你可以拉一個(gè)拉桿,讓電車開到另一條軌道上。然而問(wèn)題在于,那個(gè)瘋子在另一個(gè)電車軌道上也綁了一個(gè)人。考慮以上狀況,你是否應(yīng)拉桿?
這個(gè)問(wèn)題后來(lái)被轉(zhuǎn)移到了無(wú)人車領(lǐng)域,問(wèn)的是一輛車的AI如何做出千鈞一發(fā)、生死攸關(guān)的決定。這個(gè)問(wèn)題不僅是技術(shù)或者道德問(wèn)題,同樣也很富有哲理性。因?yàn)槲覀冊(cè)诂F(xiàn)代發(fā)達(dá)社會(huì)應(yīng)對(duì)悲劇的方式,或者對(duì)潛在悲劇的預(yù)期,通常并沒(méi)有包含該AI挑戰(zhàn)所蘊(yùn)含的這類道德決定論。
許多人是靠信仰來(lái)應(yīng)對(duì)悲劇事故。這種信念認(rèn)為,凡是計(jì)劃必有神性,即便這個(gè)計(jì)劃無(wú)法知曉。那些沒(méi)有宗教信仰的人對(duì)計(jì)劃則不抱信念,而是與這個(gè)事實(shí)和解:即混亂和人的不可靠是會(huì)制造出可怕后果的。無(wú)論是哪種情況,大家對(duì)不確定性都有一定程度的安慰感——不是對(duì)減少損失痛苦本身感到安慰,而是因?yàn)檫@讓我們能夠?qū)膳率录侠砘蛘邽槌鲩T不會(huì)活在恐懼之中感到安慰。這種不確定性加上可能性,以及保持著控制手段,讓我們可以自信地步入自己的車子開車到處轉(zhuǎn)而不怕被干掉。去掉一個(gè)因素,比方說(shuō)控制手段,可能就可以解釋為什么更多人坐飛機(jī)要比坐車更焦慮,盡管統(tǒng)計(jì)數(shù)據(jù)表明其實(shí)他們應(yīng)該反過(guò)來(lái)(汽車事故率比飛機(jī)高)。
就這一點(diǎn)而言,當(dāng)預(yù)見不到的事情比如剎車失靈、路面突遇障礙物等發(fā)生時(shí)——人類司機(jī)的瞬時(shí)反應(yīng)無(wú)疑更多是偶然性的結(jié)果而不是任何類型的理性決策。哪怕是在相對(duì)常見的例子里面,司機(jī)被教導(dǎo)的也是永遠(yuǎn)都不要為了避免橫闖馬路的野生動(dòng)物受傷害而打急轉(zhuǎn)彎,以免增加被對(duì)向來(lái)車撞上或者自己撞樹的風(fēng)險(xiǎn)。但是那種避免碰撞的直覺(jué)是很強(qiáng)烈的,而且一旦突現(xiàn)出現(xiàn)的是阿貓阿狗是還會(huì)更加強(qiáng)烈。此處的要點(diǎn)是無(wú)論結(jié)果如何——不管是松鼠被壓扁還是幾位乘客死亡,包括司機(jī)反應(yīng)在內(nèi)的這一系列的事件,都要?dú)w咎于一定程度的不確定性,而在這不確定性當(dāng)中就有許多我們哲學(xué)上的應(yīng)對(duì)機(jī)制。
但是當(dāng)人類預(yù)先確定特定道德困境的結(jié)果,并且把它編碼進(jìn)機(jī)器里面,授權(quán)機(jī)器做出這些決定時(shí)會(huì)發(fā)生什么呢?在上面提到的簡(jiǎn)單例子里面,松鼠被殺死了而所有的人都活下來(lái)了,但如果那瞬間的決定要么導(dǎo)致乘客死亡要么導(dǎo)致橫穿馬路的母子身亡呢?2016年夏,MIT的研究人員推出了一個(gè)名為道德機(jī)器的網(wǎng)站提出的正是這類問(wèn)題,在各種假設(shè)交通場(chǎng)景下,用戶必須做出一系列的雙輸決定,也就是不管怎么決策都會(huì)有人死。任何人都可以進(jìn)行“測(cè)試”,測(cè)試完之后網(wǎng)站就會(huì)公布你的“分?jǐn)?shù)”以及與其他人所做道德決策的對(duì)比情況。
當(dāng)然,從原則上來(lái)說(shuō),道德機(jī)器測(cè)試展現(xiàn)給用戶的信息是汽車AI永遠(yuǎn)也無(wú)法知道的——比如其中一些潛在受害者是犯罪分子。但在更有可能的場(chǎng)景下,年齡是某些場(chǎng)景的因素之一,這個(gè)條件我覺(jué)得會(huì)更加可信一些——汽車是有可能知道自己搭載的是一堆七十多歲的夫婦,因此決定殺死他們而不是一個(gè)年輕家庭會(huì)顯得更有道德一點(diǎn)。而那對(duì)老夫婦自己可能也會(huì)做出這個(gè)無(wú)私的決定,但在人類操作者在面臨比自己思考還要快的緊急情況時(shí),這類算計(jì)不會(huì)真正發(fā)生。
這類道德機(jī)器測(cè)試的可怕之處在于,它隱含意味著用于讓AI做出道德決定的數(shù)據(jù)集理論上可不僅僅包括數(shù)字(比方說(shuō)機(jī)器可以簡(jiǎn)單地把拯救數(shù)多于殺死數(shù)設(shè)為默認(rèn))。年齡也可以成為因素,但是對(duì)社會(huì)的凈值或者相對(duì)“價(jià)值”呢?AI可以為了拯救一位物理學(xué)家或者外科醫(yī)生或者一個(gè)卡戴珊而毀了整整一校車孩子的生命嗎?種族或者性別方面呢?這然后又會(huì)引發(fā)這些預(yù)設(shè)定決策是大家都知道的還是商業(yè)秘密的問(wèn)題,這兩個(gè)都會(huì)引發(fā)巨大且空前的道德困境。
在這一點(diǎn)上,幾天前出現(xiàn)的一篇文章告訴我們說(shuō),奔馳的下一代無(wú)人車將會(huì)被設(shè)定為無(wú)論任何情況下都拯救乘客。一方面,這屬于一個(gè)算法派生,這種派生的主題是特權(quán)階級(jí)在任何其他生命面前都有一條優(yōu)先通行車道。但也有說(shuō)法認(rèn)為奔馳這樣做事未來(lái)避免陷進(jìn)對(duì)AI進(jìn)行道德編程的烏煙瘴氣里面。可能如果法律要求所有車輛默認(rèn)都要接受一個(gè)指令,比如拯救乘客,這接近于人類司機(jī)的直覺(jué)但易犯錯(cuò)的反應(yīng),同時(shí)仍然允許不確定性扮演角色,從而免除了工程師“扮演上帝”的責(zé)任。至少在AI具備自我意識(shí)并開始自行做出此類決定前是這樣。
畢竟,一旦去掉偶然性和放棄權(quán)利,把生死決策交給機(jī)器之后,很難不會(huì)注意到人為道德決定論的反烏托邦啟示。當(dāng)我們?nèi)サ袅伺既恍浴⒚\(yùn)、上帝旨意等所提供的這些心理緩沖之后,發(fā)生了悲劇事故自然就要求做出解釋,因此本能上就要求追責(zé)。這當(dāng)然會(huì)引發(fā)一些伴生的問(wèn)題,比如誰(shuí)不可避免地要玩弄系統(tǒng),誰(shuí)會(huì)對(duì)自己的車輛進(jìn)行“越獄”,以便推翻有可能對(duì)自己不利的代碼,確保自己成為事故的幸存者。突然之間,這把抱怨擺弄技術(shù)資產(chǎn)“權(quán)利”的意志論者推到了理論上“犧牲小我”觀點(diǎn)的對(duì)立面。
AI道德問(wèn)題還成為了導(dǎo)致得出無(wú)人車的私人產(chǎn)權(quán)也許不會(huì)持久結(jié)論的又一個(gè)因素。就理性而言,要想讓AI負(fù)責(zé)所有人的往來(lái)穿梭,各個(gè)AI系統(tǒng)就必須站在同一水平線上,這樣才能汽車去到哪里都講道德。從這一點(diǎn)來(lái)說(shuō),奔馳或Tesla的模式只不過(guò)是公共系統(tǒng)或者高度管制化系統(tǒng)的墊腳石罷了。但是這樣的結(jié)果不會(huì)是制造商或者投資這一未來(lái)的領(lǐng)先數(shù)據(jù)公司想要的。
這就是我同意奧巴馬總統(tǒng)的理由之一。他最近在跟伊藤穰一(Joi Ito ,MIT媒體實(shí)驗(yàn)室主管)聯(lián)合接受《連線》雜志Scott Dadich采訪時(shí)表示,公共基金在AI開發(fā)中扮演角色是必不可少的。“......我們必須理解的事情之一是,如果我們希望這些突破性技術(shù)體現(xiàn)出多元化社區(qū)的價(jià)值,那么政府基金就必須成為其中一部分。如果政府沒(méi)有參與提供資金支持,那么伊藤穰一提出的所有這些技術(shù)價(jià)值問(wèn)題最終可能都會(huì)失去,或者至少?zèng)]有經(jīng)過(guò)適當(dāng)?shù)霓q證。”
當(dāng)然,奧巴馬所指的AI并不僅限于車輛,他的觀點(diǎn)闡述的很好。AI的科幻未來(lái)已經(jīng)到來(lái)。但用什么樣的價(jià)值觀來(lái)推動(dòng)決策的問(wèn)題在公開辯論當(dāng)中幾乎很少被提及。與此同時(shí),企業(yè)用“顛覆”的修辭已經(jīng)赦免了隱私和知識(shí)產(chǎn)權(quán)侵權(quán)方面的許多原罪?;蛘呔拖馭am Kriss在《大西洋》的文章中的出色概括那樣:“硅谷解決的是此前并不存在的問(wèn)題,硅谷文化對(duì)‘顛覆’的執(zhí)著已經(jīng)達(dá)到了病態(tài)的地步。技術(shù)產(chǎn)品不再感覺(jué)像是提供給公眾的東西,而像是強(qiáng)加于人:偉大的愿景家觀察大家做某件事情的方式,然后決定以一己之力去改變它。”
今年9月底的時(shí)候,美國(guó)的技術(shù)巨頭——IBM、蘋果、Amazon、微軟、Facebook以及Google的計(jì)算機(jī)科學(xué)家聯(lián)合成立了一個(gè)新聯(lián)盟,名字叫做“造福社會(huì)與公眾的人工智能合作伙伴關(guān)系”。該聯(lián)盟的目標(biāo)之一是建立AI領(lǐng)域最佳實(shí)踐的規(guī)范標(biāo)準(zhǔn),其中就包括了類似無(wú)人車電車難題這樣的倫理問(wèn)題的處理。但是這些技術(shù)研發(fā)體現(xiàn)出公共利益是必不可少的,雖然我本人可能比較挑刺奧巴馬政府在許多公共領(lǐng)域過(guò)于Google化,但是我相信總統(tǒng)本人對(duì)如何開發(fā)出有道德的AI是有著深刻思考的。從目前的研發(fā)和投資力度來(lái)看,我們唯有希望未來(lái)的領(lǐng)導(dǎo)人仍然能繼續(xù)推進(jìn)這類話題的深入了。
聯(lián)系客服