科幻連續(xù)劇《西部世界》海報(bào)。 資料圖
有人預(yù)測(cè),我們不久就能看到一個(gè)諸如西部世界般的瘋狂樂園出現(xiàn)在我們的現(xiàn)實(shí)社會(huì)中,機(jī)器人的報(bào)復(fù)也將隨之而來。阻止此類事件的發(fā)生,或許是法學(xué)及法律人涉足人工智能領(lǐng)域的意義所在
馮子軒
《西部世界》改編自邁克爾·卡萊頓的同名小說,故事發(fā)生在未來世界的一座以美國(guó)西部世界為主題的成人樂園中,講述了為人類游樂提供服務(wù)的機(jī)器人自主意識(shí)和思維的覺醒,進(jìn)而反抗人類并引發(fā)失控的科幻故事。
《西部世界》同名電影于1973年上映,當(dāng)時(shí)就引發(fā)了熱烈反響。2016年,該小說被拍成科幻連續(xù)劇。雖其并未擺脫好萊塢大片“機(jī)器人意識(shí)覺醒反擊人類”的老套路,但由于恰好與當(dāng)下機(jī)器人工程、人工智能技術(shù)突破性進(jìn)展以及爭(zhēng)議不斷的時(shí)代背景高度相關(guān),因此引發(fā)了觀看熱潮,并迅速成為世界性、現(xiàn)象級(jí)的神劇。
風(fēng)險(xiǎn)來臨:人工智能的多重面孔
1956年,美國(guó)計(jì)算機(jī)科學(xué)家約翰·麥卡錫和他的同事最早提出人工智能(Artificial Intelligence,以下簡(jiǎn)稱AI)概念,指出“讓機(jī)器達(dá)到這樣的行為,即與人類做同樣的行為,可以被稱為人工智能”。在隨后的60多年時(shí)間中,人工智能曾經(jīng)經(jīng)歷了三起三落,興起與低谷常伴。
在2016年,阿法狗打敗李世石和柯潔以前,多數(shù)公眾對(duì)于AI的印象可能還僅僅停留在諸如《西部世界》之類的科幻電影中。但近年來,隨著網(wǎng)絡(luò)、云計(jì)算、大數(shù)據(jù)、深度學(xué)習(xí)技術(shù)的突破,人工智能發(fā)展迅猛異常。
當(dāng)今的人工智能技術(shù)以機(jī)器學(xué)習(xí)為核心,在視覺、語(yǔ)音、自然語(yǔ)言等領(lǐng)域迅速發(fā)展,并開始進(jìn)入到具體的應(yīng)用場(chǎng)景中,包括自動(dòng)駕駛、虛擬助理、研究和教育、金融服務(wù)、醫(yī)療和診斷、設(shè)計(jì)和藝術(shù)創(chuàng)作、法律、社交陪伴、服務(wù)業(yè)和工業(yè),展現(xiàn)出廣闊的發(fā)展前景。《西部世界》展現(xiàn)的成人主題樂園,也是其應(yīng)用場(chǎng)景的一個(gè)表現(xiàn)。
但是,當(dāng)前人工智能技術(shù)發(fā)展仍處于弱人工智能時(shí)代,即僅具備狹義的專業(yè)領(lǐng)域人工智能能力,與《西部世界》所展現(xiàn)的強(qiáng)人工智能相去甚遠(yuǎn)(強(qiáng)人工智能,又稱通用人工智能,具備處理多種類型任務(wù)和適應(yīng)未曾預(yù)料的情形和能力)。目前,科學(xué)界對(duì)于強(qiáng)人工智能何時(shí)實(shí)現(xiàn)并無定論,多數(shù)技術(shù)專家和業(yè)內(nèi)人士認(rèn)為,強(qiáng)人工智能在2045年之前不會(huì)實(shí)現(xiàn)。
人工智能的威脅,最著名的當(dāng)屬馬斯克發(fā)表的“AI威脅論”,他認(rèn)為AI有可能成為人類文明最大的威脅,呼吁政府迅速采取措施監(jiān)管AI技術(shù)。與之相反,扎克伯格、李開復(fù)等多位業(yè)界人士表示人工智能對(duì)人類生存威脅尚且遙遠(yuǎn)。
這些辯論實(shí)則代表了當(dāng)前公眾與專業(yè)人士之間、技術(shù)研發(fā)人員與社科研究人員之間對(duì)人工智能基本認(rèn)知方面的巨大鴻溝。當(dāng)前,計(jì)算機(jī)或機(jī)器人正在逐漸成為某種具有一定自主性的能動(dòng)體,原本只能由人類完成的各項(xiàng)工作開始被計(jì)算機(jī)接手,由機(jī)器來完成,例如開車、翻譯、文藝創(chuàng)作等。
決策讓渡于機(jī)器蘊(yùn)含著人工智能的決策選擇優(yōu)于人類的經(jīng)濟(jì)動(dòng)因。事實(shí)上,近年蓬勃發(fā)展的機(jī)器人產(chǎn)業(yè),已經(jīng)對(duì)人類社會(huì)產(chǎn)生了越來越深遠(yuǎn)的影響。例如,自動(dòng)駕駛場(chǎng)景中,依靠人工智能、視覺計(jì)算、雷達(dá)、監(jiān)控裝置和全球定位系統(tǒng)協(xié)同合作,電腦可以在沒有任何人類主動(dòng)的操作下,自動(dòng)安全地操作機(jī)動(dòng)車輛。
另一方面,這一切都是建立在機(jī)器人會(huì)聽從人類指揮,心甘情愿為人類服務(wù)的基礎(chǔ)上。如若人工智能變得足夠聰明,如同《西部世界》中所上演的那樣不愿意再聽從人類命令,甚至要奪取人類的統(tǒng)治權(quán),那人類發(fā)展人工智能豈非玩火自焚?
阿法狗打敗李世石和柯潔使得這種擔(dān)憂迅速蔓延,或許我們還可開玩笑稱關(guān)掉機(jī)器人的電源,人類依然能夠立于不敗之地,但當(dāng)前機(jī)器人卻也在朝著自主保證能源供給的方向發(fā)展。
正如波斯特洛姆提出的曲別針?biāo)枷雽?shí)驗(yàn)?zāi)菢樱喝绻粋€(gè)人工智能被設(shè)置為工廠生產(chǎn)管理,其最終目標(biāo)是使曲別針的產(chǎn)量最大化,那么,人工智能很可能具有無法滿足的胃口,去不斷地獲取物質(zhì)和能力,走上首先將地球、然后將整個(gè)可觀察宇宙的大部分都變成曲別針的道路。
縱然,當(dāng)前很多技術(shù)研發(fā)人員認(rèn)為人工智能超越人類是杞人憂天,但需要注意到的是,科學(xué)家在很多時(shí)候并不能充分理解科學(xué)技術(shù)在未來的發(fā)展程度以及其發(fā)明的科學(xué)技術(shù)的具體應(yīng)用。典型如核武器,其在發(fā)明后是否使用以及如何使用不能為發(fā)明它的科學(xué)家所決定。
同樣,認(rèn)為人工智能發(fā)展僅會(huì)停留在弱人工智能時(shí)代的觀點(diǎn)似乎同樣站不住腳。提姆·厄班提出了科技發(fā)展在時(shí)間維度上呈加速度趨勢(shì)的觀點(diǎn)——兩百年前的人無法想象今天的社會(huì)發(fā)展程度,正如今天的人無法想象兩百年后的科技發(fā)展程度一樣,時(shí)間跨度越大,科技代差越明顯。所以,沒有人知道奇點(diǎn)會(huì)不會(huì)來、何時(shí)會(huì)來。
在人工智能未來風(fēng)險(xiǎn)處于不可完全認(rèn)知,風(fēng)險(xiǎn)評(píng)估及成本效益分析等規(guī)制手段可能不完全有效的情況下,人工智能技術(shù)發(fā)展的風(fēng)險(xiǎn)規(guī)制應(yīng)成為社會(huì)治理中重要環(huán)節(jié)。此外,即便于弱人工智能時(shí)代,機(jī)器人在決策與行動(dòng)自主性上也有脫離被動(dòng)工具的可能性;在放任自由的情況下,其判斷和行為未必完全符合人類的價(jià)值觀、道德觀以及法律規(guī)范、倫理規(guī)范等。
《西部世界》中的驚悚場(chǎng)景離我們很遠(yuǎn),但當(dāng)前伴隨著人工智能技術(shù)發(fā)展的隱私泄露、算法偏見、算法黑箱、歸責(zé)困難等風(fēng)險(xiǎn)已為人們所逐漸覺察。
應(yīng)對(duì)之一:機(jī)器人也有倫理
《西部世界》中有段對(duì)白:“我們一脫離現(xiàn)實(shí)世界,你就變成一個(gè)邪惡的混蛋了。”這在某個(gè)層面隱喻了人性的弱點(diǎn),人類至今取得的輝煌成就有賴于集體創(chuàng)造的道德倫理、法制社會(huì)的束縛。隨著機(jī)器智能的崛起,人類社會(huì)對(duì)人工智能的道德倫理約束業(yè)已提上日程。
早在1942年,阿西莫夫便在其小說《環(huán)舞》中提出了著名的“機(jī)器人三定律”,提出了機(jī)器人倫理思考:第一定律,機(jī)器人不能傷害人類,不能袖手旁觀人類受到傷害;第二定律,機(jī)器人應(yīng)當(dāng)服從人類命令,除非該指令與第一定律相悖;第三定律,在不違背第一和第二定律的情況下,機(jī)器人應(yīng)保護(hù)自身的存在。此后,阿西莫夫?qū)θ蛇M(jìn)行了修正,提出第零定律,即機(jī)器人必須保護(hù)人類的整體利益不受損害。
2016年8月,聯(lián)合國(guó)世界科學(xué)知識(shí)與科技倫理委員會(huì)發(fā)布《關(guān)于機(jī)器人倫理的初步草案報(bào)告》,認(rèn)為機(jī)器人不僅需要尊重人類社會(huì)的倫理規(guī)范,而且需要將特定倫理規(guī)范寫入機(jī)器程序中。歐盟亦提出所謂“機(jī)器人憲章”,即人工智能研究需遵守諸如人類利益、正義、基本權(quán)利、包容性、可責(zé)性、安全性等倫理準(zhǔn)則。將“道德代碼”嵌入人工智能程序的呼聲越來越強(qiáng)。
然而需注意的是,即便不談技術(shù)上的困難,單從人類自身的角度而言亦難以達(dá)成關(guān)于倫理準(zhǔn)則的統(tǒng)一標(biāo)準(zhǔn)。社會(huì)建構(gòu)意義上的倫理法則并無貫之以四海皆行的意味。
例如,“機(jī)器人憲章”中所提及的“正義”“人類利益”等字眼便無法提取其最明確的內(nèi)涵。不同社會(huì)、不同時(shí)代的正義觀念以及利益取向有所不同,即便處于同一時(shí)代同一社會(huì),亦不能將某一行動(dòng)一概歸為“正義”或“人類利益”。何況諸如電車難題等道德困境的存在同樣無法忽視。此時(shí),無論是功利主義抑或是絕對(duì)主義的行動(dòng)準(zhǔn)則似乎都無法被稱為“正義”或都可被稱為“正義”,在這種即便是人類也無法作出正確行動(dòng)的情況下,如何妄想機(jī)器人能夠設(shè)定正確的行動(dòng)程序呢?
另一個(gè)有意思的問題就是價(jià)值對(duì)接問題,即機(jī)器人的行動(dòng)真的就是你想要的嗎?機(jī)器人幫你打掃屋子,但是可能扔掉了你最喜歡的舊雨鞋。它履行了自己的義務(wù),但由此造成的結(jié)果卻不是你想要的。
這種設(shè)定性矛盾看起來似乎并不少見,機(jī)器人對(duì)指令的理解更可能是五花八門。這使得為人類自身便利而設(shè)計(jì)出來的機(jī)器人最終使人類無時(shí)無刻不處于風(fēng)險(xiǎn)之中。諸如此類的問題還有很多,單純期待依靠?jī)?nèi)涵寬泛、沖突且難以具化的倫理法則嵌入人工智能的程序似乎并不是萬全之策。
應(yīng)對(duì)之二:法律人的方案
人類擁抱科學(xué)和理性的過程不是一蹴而就的,法律習(xí)慣于對(duì)社會(huì)技術(shù)的發(fā)展做出相對(duì)滯后的回應(yīng),但在AI領(lǐng)域,我們需要作出具有前瞻性的立法布局,這是全世界需要共同面臨的法律難題。
盡管各國(guó)關(guān)于人工智能立法均呈現(xiàn)分散化的特點(diǎn),但針對(duì)人工智能法律責(zé)任及潛在風(fēng)險(xiǎn)方面均作出了積極的立法嘗試。
如,德國(guó)在2017年通過自動(dòng)駕駛汽車法案,制定了諸如自動(dòng)駕駛汽車須安裝“黑匣子”以及“司機(jī)必須始終坐在方向盤后”等規(guī)則;歐盟于2016年發(fā)布《歐盟機(jī)器人民事法律規(guī)則》。
針對(duì)公眾普遍關(guān)注的隱私泄露問題,歐盟頒布了被稱為史上最嚴(yán)格的關(guān)于數(shù)據(jù)保護(hù)的《歐盟一般數(shù)據(jù)保護(hù)條例》(GDPR);美國(guó)、日本、韓國(guó)等也對(duì)現(xiàn)有的個(gè)人信息保護(hù)立法展開修訂工作。我國(guó)也于2016年通過《網(wǎng)絡(luò)安全法》,要求網(wǎng)絡(luò)運(yùn)營(yíng)者應(yīng)當(dāng)對(duì)其收集的用戶信息嚴(yán)格保密,并建立健全用戶信息保護(hù)制度。
在算法歧視的問題上,歐盟數(shù)據(jù)保護(hù)委員會(huì)發(fā)布《應(yīng)對(duì)大數(shù)據(jù)挑戰(zhàn):呼吁通過設(shè)計(jì)和可歸責(zé)性實(shí)現(xiàn)透明性、用戶控制及數(shù)據(jù)保護(hù)》,提出警惕大數(shù)據(jù)對(duì)窮人及弱勢(shì)群體的歧視。美國(guó)國(guó)會(huì)為避免在刑事司法程序中出現(xiàn)諸如“黑人較白人更易犯罪”等算法歧視,正積極推動(dòng)《量刑改革法案》,引入“犯罪風(fēng)險(xiǎn)得分”。我國(guó)剛頒布的電子商務(wù)法亦有“電子商務(wù)經(jīng)營(yíng)者根據(jù)消費(fèi)者的興趣愛好、消費(fèi)習(xí)慣等特征向其推銷商品或者服務(wù),應(yīng)當(dāng)同時(shí)向該消費(fèi)者提供不針對(duì)其個(gè)人特征的選項(xiàng),尊重和平等保護(hù)消費(fèi)者合法權(quán)益”的規(guī)定。
凡此種種立法努力,為此后人工智能技術(shù)發(fā)展賴以存在的法律環(huán)境鋪平了道路。
另一個(gè)有趣的問題是,《西部世界》中人類肆意殺戮機(jī)器人,這似乎提醒我們思考,機(jī)器人的權(quán)利是否需要保護(hù)?即使在當(dāng)前工具意義的機(jī)器人狀態(tài)下,是否需要賦予其最低限度的道德權(quán)利,如人類不能利用其主導(dǎo)地位對(duì)機(jī)器人進(jìn)行肆意虐待?當(dāng)機(jī)器人出現(xiàn)意志時(shí)我們又該如何對(duì)其定位?當(dāng)前有學(xué)者提出的應(yīng)當(dāng)對(duì)機(jī)器人進(jìn)行征稅以補(bǔ)貼因機(jī)器人而失去勞動(dòng)崗位的人的意見,是否可行?這些都是伴隨著人工智能技術(shù)發(fā)展而拋給我們的新問題。
西部世界樂園是一個(gè)在法律和戒律之外的試驗(yàn)場(chǎng),在這個(gè)試驗(yàn)場(chǎng)中人類可以進(jìn)行他們最瘋狂的放縱而不受指摘與處罰?;蛟S對(duì)某些人而言,這是人工智能的一個(gè)絕佳用處。甚至有人預(yù)測(cè),在10年、20年后我們就能看到一個(gè)諸如西部世界般的瘋狂樂園出現(xiàn)在現(xiàn)實(shí)社會(huì)中,而無人對(duì)此感到不適,但機(jī)器人的報(bào)復(fù)也將隨之而來。阻止此類事件的發(fā)生,或許是法學(xué)及法律人涉足人工智能領(lǐng)域的意義所在。
(作者系中國(guó)社科院法學(xué)所博士后研究人員、西南政法大學(xué)人工智能法學(xué)院副教授)
責(zé)編:高恒濤
聯(lián)系客服