摘 要:人工智能對(duì)人類智能的模擬在邏輯上包含對(duì)人類道德的模擬。人工智能的規(guī)范者指引應(yīng)從“人為自己立法”的原理中產(chǎn)生。對(duì)于智能體的倫理框架而言,“讓算法遵循‘善法’”是一條自明性原則,可稱為“算法從善”原則。該原則的第一個(gè)方面的倫理尺度與智能主體模式的革命性構(gòu)建有關(guān),其實(shí)質(zhì)是在擬主體性維度通過(guò)道德算法進(jìn)行規(guī)范性指引,且亟需新的責(zé)任倫理框架提供支持。由于道德算法是嵌入在算法體系中有待完善的算法程式,算法從善原則就涉及與之相關(guān)的第二個(gè)方面的倫理尺度。它與人類主體模式下的道德建構(gòu)有關(guān),包括常見(jiàn)的人類主體模式以及“人類主體與人工智能主體相處的主體間模式”。對(duì)這兩種道德形態(tài)而言,算法只有體現(xiàn)或遵循人類主體模式下的善法,才能以有責(zé)任感的方式推進(jìn)道德算法的進(jìn)化及其在機(jī)器中的嵌入。人類在算法的控制權(quán)上保持審慎,是避免傷害的明智選擇,也是在技術(shù)發(fā)展面前維護(hù)人類尊嚴(yán)的底線。
關(guān)鍵詞:人工智能;算法;道德;倫理;善法
作者簡(jiǎn)介: 田海平,北京師范大學(xué)哲學(xué)學(xué)院教授,博士生導(dǎo)師;鄭春林,北京師范大學(xué)哲學(xué)學(xué)院博士研究生。
基金: 國(guó)家社科基金重大項(xiàng)目“生命倫理的道德形態(tài)學(xué)研究”(13&ZD066)成果之一。
人工智能的蓬勃發(fā)展已然展現(xiàn)出廣闊的應(yīng)用前景,帶來(lái)了人們?cè)谒枷搿⑸詈凸ぷ鞯确矫嫒轿坏淖兏?。人工智能研究初露崢嶸之時(shí),就已經(jīng)展現(xiàn)出了某種獨(dú)特的哲學(xué)氣質(zhì)。當(dāng)今之日,在“算法支配一切”的總體性決定論框架下,不同背景(例如不同文化、信仰、歷史、政治制度和價(jià)值觀背景)的人工智能算法專家不可避免地存在著對(duì)算法偏好的不同理解和預(yù)設(shè),由他們所主導(dǎo)的人工智能產(chǎn)品在其背后也極有可能代入了不同的哲學(xué)設(shè)定、道德理解和倫理偏好。于是,一種令人擔(dān)憂的情況豁然呈現(xiàn),即人類的倫理世界觀之分歧和道德?tīng)?zhēng)議會(huì)折射在人工智能體的“規(guī)范者指引”之中。這一點(diǎn),將界劃出人工智能時(shí)代道德世界的復(fù)雜性。比如說(shuō),由兩套不同算法系統(tǒng)的智能機(jī)器來(lái)描繪或者預(yù)測(cè)同樣一件事情,可能會(huì)得出很不一樣的結(jié)論,因?yàn)樗鼈儗?duì)于“好世界”的理解可能不盡一致,極端情況下甚至正相反。由于人類對(duì)“什么是好”“如何才是好”之類問(wèn)題尚且難以形成普遍共識(shí),那么,人工智能時(shí)代的道德在求解“算法如何從善”“如何讓算法遵循‘善法’”之技術(shù)路線和倫理尺度時(shí),也就唯有依從于某種類型的“途中道德”。
一、人工智能時(shí)代來(lái)臨,我們應(yīng)該如何行動(dòng)?
從人工智能的主體結(jié)構(gòu)上看,人工智能作為“圖靈測(cè)試”下的智能體,實(shí)際上是無(wú)法擺脫模擬主體和虛擬主體的身份預(yù)定的。無(wú)論作為模擬主體還是虛擬主體,人工智能的主體結(jié)構(gòu)都屬于某種形式的擬主體結(jié)構(gòu)。即使今天的人工智能以音源庫(kù)和全息投影技術(shù)為支撐推出“二次元”虛擬偶像登臺(tái)勁歌熱舞,他或她與具有自由選擇能力的人仍然存在著根本的區(qū)別。也就是說(shuō),人工智能體無(wú)論表現(xiàn)得如何“像人似的”,它仍然只是一具“沒(méi)有靈魂的機(jī)器軀殼”或“擬主體”。究其根由,不難發(fā)現(xiàn),人工智能的主體行為是由原因驅(qū)動(dòng)的,而人的主體自主決斷則取決于行動(dòng)理由。前者屬于一種自然必然性,后者則根源于人際的、社會(huì)的、文化歷史的相互關(guān)聯(lián)及其運(yùn)行規(guī)則,并以自由意志為前提。
然而,雖然人工智能體或機(jī)器人不可能擁有自由意志,也不可能具備倫理決策的理解力,但這并非是說(shuō)它在模擬人類主體進(jìn)行道德選擇和倫理決策方面全然地?zé)o能為力。情況可能正好相反。人工智能體對(duì)人類智能的模擬在理論邏輯上包含了對(duì)人類道德的模仿,因?yàn)椤凹夹g(shù)是人的智慧和利益相結(jié)合的產(chǎn)物,技術(shù)中必然包涵有發(fā)明和使用技術(shù)者的價(jià)值觀”1。這一點(diǎn)也推動(dòng)人們從消極層面考慮另外一個(gè)問(wèn)題,即人工智能可能會(huì)出色地模仿人類的道德,但也可能演變成為惡意的機(jī)器人。
我們知道,“阿爾法狗”(AlphaGo)戰(zhàn)勝人類頂尖棋手李世石,“微軟小冰”寫(xiě)下堪可亂真的朦朧體詩(shī)歌,IBM公司的超級(jí)機(jī)器人“沃森”進(jìn)軍“智能+大醫(yī)療”,等等,這些人工智能體對(duì)人類智能的模仿毫無(wú)疑義地仍然屬于“低階人工智能”或者“弱人工智能”的范疇。雖然人們喜好附加一些神話色彩的語(yǔ)匯來(lái)談?wù)摗爸悄?”時(shí)代的來(lái)臨,比方說(shuō),DeepMind公司的人工智能專家就偏好將人工智能的某些行為模式稱為“直覺(jué)”“創(chuàng)造力”“策略”甚至“戰(zhàn)略”或“道德”,但這些“強(qiáng)主體性”特質(zhì)其實(shí)并不是神經(jīng)網(wǎng)絡(luò)或算法自身的屬性。擬主體性的算法或神經(jīng)網(wǎng)絡(luò)其實(shí)自己并不知道“戰(zhàn)略”或“道德”是什么,它只能“顯得是”“仿佛是”知道“戰(zhàn)略”或“道德”的意義。而這里所說(shuō)的“顯得是”“仿佛是”,意思是說(shuō)它還并未真正超越“圖靈測(cè)試”的模擬主體或虛擬主體(模擬機(jī))之范疇。
目前在技術(shù)上可以大幅度提升人工智能系統(tǒng)進(jìn)行“深度學(xué)習(xí)”之效率的方法是以海量的自動(dòng)化試錯(cuò)方法來(lái)反饋錯(cuò)誤并調(diào)整系統(tǒng),它屬于一種“反向傳播技術(shù)”,或可稱其為高級(jí)形態(tài)(通神)的“逆向技術(shù)”,其最擅長(zhǎng)的是模仿和模擬而非創(chuàng)造和創(chuàng)新。因此,它折射的其實(shí)就是算法專家的創(chuàng)造力及其對(duì)“戰(zhàn)略”或“道德”的理解。這實(shí)際上離真正的智能主體還存在相當(dāng)遠(yuǎn)的距離。人工智能的發(fā)展目標(biāo)之一是使計(jì)算機(jī)通過(guò)一系列算法達(dá)到人的智力和行動(dòng)水平。然而,即使人工智能的發(fā)展還遠(yuǎn)遠(yuǎn)未達(dá)到如此高的程度,日益滋長(zhǎng)起來(lái)的恐慌性擔(dān)憂也已經(jīng)在蔓延:一旦人工智能大規(guī)模進(jìn)入我們的生活,比我們更像我們甚至更了解我們的機(jī)器人和我們共同生活,這意味著什么?人類未來(lái)會(huì)怎樣?
一些人(如斯蒂芬·霍金,史蒂夫·沃茲尼亞克,比爾·蓋茨等)發(fā)出了先知般的警示,人工智能可能是人類存在的最大威脅。還有些人(如埃隆·馬斯克)甚至認(rèn)為有了人工智能,就相當(dāng)于我們開(kāi)始召喚惡魔。當(dāng)然,我們必須承認(rèn),在圍繞人工智能的諸種是非善惡之論辯及眾聲喧嘩中,一種明智的擔(dān)憂或富有遠(yuǎn)見(jiàn)的決斷是必要的,它指向一種積極的應(yīng)對(duì)和合理化的行動(dòng)
人工智能的大規(guī)模發(fā)展使得整個(gè)社會(huì)呈現(xiàn)兩種態(tài)度:一種是以霍金為代表的悲觀主義態(tài)度,他認(rèn)為人工智能的發(fā)展最終可能導(dǎo)致的是人類自身的毀滅,比爾·蓋茨也曾說(shuō)過(guò)要時(shí)刻對(duì)人工智能的發(fā)展保持警惕,這背后都透露著對(duì)人工智能發(fā)展前景的巨大未知性的擔(dān)憂。但知識(shí)界也不乏如庫(kù)茲韋爾這類樂(lè)觀主義的代表,認(rèn)為人工智能所帶來(lái)的風(fēng)險(xiǎn)是可控的,不會(huì)以人類文明被摧毀為代價(jià),風(fēng)險(xiǎn)的背后正是高效用與高回報(bào)。透過(guò)各種各樣的“悲觀主義-樂(lè)觀主義”的觀念對(duì)峙,我們看到,我們真正需要認(rèn)真面對(duì)的問(wèn)題是:既然認(rèn)識(shí)到人工智能的時(shí)代已經(jīng)到來(lái),我們要如何行動(dòng)才能使自己成為未來(lái)的一部分?換言之,為了避免人工智能在喚醒萬(wàn)物的同時(shí)喚醒人類無(wú)法控制(甚至最終控制或取代人類)的“惡魔”,我們到底應(yīng)該如何行動(dòng)?
筆者認(rèn)為,這個(gè)問(wèn)題的緊要處只有放在規(guī)范性的先行構(gòu)建上,亦即通過(guò)人工智能的“規(guī)范者指引”,才能做到未雨綢繆。它以一種異常尖銳的緊迫性提出了人工智能倫理框架的道德重要性問(wèn)題,關(guān)涉人工智能時(shí)代的道德建構(gòu)。面對(duì)眾多的支持與反對(duì)的意見(jiàn),我們這里首先重點(diǎn)強(qiáng)調(diào)如下三條論題:(1)在所有的智能形態(tài)中,“道德”無(wú)疑屬于一種“高階智能形態(tài)”;(2)如果人工智能體作為一具“無(wú)靈魂的機(jī)器軀殼”,它要想成為真正的智能主體,其智能主體性的身份界定就只能通過(guò)算法對(duì)人類靈魂的功能進(jìn)行模擬或模仿;(3)人工智能的智能主體模擬人類靈魂功能的第一步,就是將自身展現(xiàn)為一種與道德屬性緊密關(guān)聯(lián)的存在。
那么,人工智能體如何才能作為一種與道德屬性緊密關(guān)聯(lián)的存在出現(xiàn)呢?從擬主體意義上,人工智能體如何由模擬人腦的理性計(jì)算躍升到模擬人腦的靈魂功能呢?可信任人工智能的“規(guī)范者指引”之構(gòu)建是一條出路。在這一個(gè)問(wèn)題上,2018年歐盟發(fā)布的由歐委會(huì)人工智能高級(jí)專家組(AIHLEG)起草的《可信任人工智能倫理指南》(Ethics Guidelines for Trustworthy AI)2可以說(shuō)是一個(gè)里程碑式的文獻(xiàn)。這一文獻(xiàn)的總體思路是,人工智能的規(guī)范者指引應(yīng)從“人為自己立法”的規(guī)范性原理中產(chǎn)生。因此,就形式方面而言,我們將“規(guī)范者指引”之倫理框架的先行構(gòu)建概括為“可信任人工智能”倫理規(guī)范的第一個(gè)基本原則,那就是“讓算法遵循‘善法’”。
在這一條原則中,有兩個(gè)關(guān)鍵詞:“善法”和“算法”。我們知道,“善法”的主體性,總是與“目的”相關(guān),它是“人為自己立法”的“規(guī)范者指引”之目的。而“算法”在總體上永遠(yuǎn)只能是達(dá)到目的的手段或工具而已。因此,“讓算法遵循‘善法’”,意思就是:在“算法從算”的人工智能的主體性維度,必須加載上“算法從善”的規(guī)范者指引的倫理框架,且通過(guò)“算法從善”的“規(guī)范者指引”來(lái)規(guī)范人工智能的實(shí)際創(chuàng)制和運(yùn)營(yíng)。我們以AlphaGo為例,表面上看是智能體的能力超越了人類自身的能力,但這其實(shí)折射或反映的是人類自身與自己的一場(chǎng)博弈。普通圍棋手的失誤源自單一個(gè)體有限的“程序”運(yùn)行能力,在規(guī)定時(shí)間內(nèi)無(wú)法窮盡所有可能性,而人類將這種“神經(jīng)網(wǎng)絡(luò)”程序(算法)輸入智能體的算法(電子算法)之中,它可以調(diào)用海量數(shù)據(jù)庫(kù)進(jìn)行深度學(xué)習(xí),以達(dá)成勝利為目標(biāo)。這就最大限度地排除了那些導(dǎo)致失敗的可能,因而很難出現(xiàn)失誤狀況。所以人工智能體本質(zhì)上是人類智慧和智能高度聚合與集中的一種表現(xiàn)形式?,F(xiàn)階段發(fā)展的人工智能算法都或多或少帶著人類的目的,最終指向的是人類自己對(duì)某些目的(比如競(jìng)賽勝利)的渴望或欲求。人類總是欲求“好的目的”,并以“善”為旨?xì)w。這是一切智能活動(dòng)的全部?jī)r(jià)值旨趣。正因?yàn)槿绱?“讓算法遵循‘善法’”(簡(jiǎn)稱“算法從善”),對(duì)于智能體在擬主體維度的“規(guī)范者指引”之倫理框架建構(gòu)而言,便是一條可以成為自明性的立法原則。
具而言之,作為人工智能時(shí)代道德建構(gòu)的第一條自明性原則,“算法從善”原則可以從兩個(gè)重要的倫理尺度上加以展開(kāi):一是人工智能體基于算法將道德轉(zhuǎn)變成為代碼并將之嵌入或者代入到人工智能的擬主體規(guī)范性結(jié)構(gòu)之中——這一條涉及的重點(diǎn),是人工智能帶來(lái)的智能主體模式的構(gòu)建及其相關(guān)倫理尺度之載入問(wèn)題;二是人類在拓展人工智能以及由之推進(jìn)的深度智能化的人類社會(huì)的形態(tài)過(guò)程中必須進(jìn)行道德世界的重構(gòu)——由于人工智能擬主體模式的大量涌現(xiàn),必然涉及常見(jiàn)的人類主體模式以及人類主體與人工智能主體相處的“主體間”模式及其相關(guān)倫理尺度問(wèn)題。
二、人工智能的革命性:“AI2.0”依系于道德算法嗎?
“讓算法遵循‘善法’”這一原則,適用于人工智能的智能主體模式在“擬主體”維度展現(xiàn)的一種革命性進(jìn)展。這是“算法從善”原則的第一個(gè)方面的倫理尺度。
人工智能體的創(chuàng)建和運(yùn)營(yíng)如果在擬主體維度不將道德視為關(guān)鍵性智能的話,就會(huì)遭遇重大倫理困境。比如,自動(dòng)駕駛汽車確實(shí)可以給人們帶來(lái)更大的便利和安全,然而,當(dāng)它面對(duì)更為復(fù)雜的道路安全狀況時(shí),是否可以代替人類做出攸關(guān)生死的倫理抉擇?在全面展開(kāi)這項(xiàng)工作之前,人類似乎更需要審慎地思考:創(chuàng)建具備道德自主能力的人工智能體的人應(yīng)該肩負(fù)怎樣的責(zé)任?該如何通過(guò)有責(zé)任感的方式且以負(fù)責(zé)任創(chuàng)新的形式為機(jī)器人附加上道德能力?“電車難題”或許會(huì)在智能駕駛算法的開(kāi)發(fā)中直接對(duì)工程師們帶來(lái)挑戰(zhàn)。因此,“算法從善”原則針對(duì)的第一個(gè)方面的倫理尺度,與人工智能的智能主體模式的革命性構(gòu)建框架有關(guān)。
人工智能通常的定義是研究如何使機(jī)器(計(jì)算機(jī))能夠做“那些表現(xiàn)出人的智能的事情”,其目標(biāo)是“使智能行為自動(dòng)化”。然而,就智能主體的類型而言,在機(jī)器中實(shí)現(xiàn)某些人類的智能(弱人工智能),與讓機(jī)器自主地或自動(dòng)地表現(xiàn)人類的智能(強(qiáng)人工智能),在強(qiáng)弱程度上是大不一樣的。如果將前者記為“AI1.0”,那么后者就是“AI2.0”。前者在人類日常生活中的應(yīng)用已經(jīng)非常廣泛,典型代表就是自動(dòng)化裝置。這類裝置沒(méi)有自主意識(shí),決策制定大多無(wú)須涉及倫理判斷,只須接受人類指令直接觸發(fā)啟動(dòng)條件便可實(shí)行,更不涉及主動(dòng)學(xué)習(xí)的過(guò)程。例如,移動(dòng)支付系統(tǒng)的運(yùn)行條件就是支付密碼的正確輸入,而不涉及判斷支付主體是否為銀行卡所有者。就前者而論,今天的人工智能在某些方面雖然已遠(yuǎn)遠(yuǎn)超過(guò)了人類智能,以至于有人預(yù)測(cè)在不遠(yuǎn)的將來(lái)機(jī)器智能有可能全面超越人類智能;但是,客觀地說(shuō),它還不能稱得上是嚴(yán)格意義上的智能主體(Agents)。但從結(jié)果上來(lái)看,它的行為一定會(huì)對(duì)人類在某種程度上產(chǎn)生有利或有害的影響。因此,為了規(guī)避智能體對(duì)人類所造成的威脅,它的決策方式會(huì)逐步向“AI2.0”形態(tài)接近。就后者而論,即使融合了智能對(duì)話(語(yǔ)義網(wǎng)絡(luò))、知識(shí)圖譜和云計(jì)算等技術(shù)在內(nèi)的機(jī)器人,其能動(dòng)、自主和自由方面的主體特性或主體結(jié)構(gòu),依然離人類主體性相距甚遠(yuǎn),甚至遠(yuǎn)不能稱之為“人工智能”(AI)。有人主張,姑且可以稱之為“人工愚蠢”(AI)。即便如此,由于具有自主行動(dòng)能力的人工智能在主體特性上變得日益凸顯,目前的人工智能完全可以看作是從“AI1.0”到“AI2.0”的過(guò)渡。其實(shí)質(zhì),是走向一場(chǎng)更深遠(yuǎn)的智能主體革命。在這個(gè)意義上,技術(shù)領(lǐng)域的“宿命論”觀點(diǎn)是極其危險(xiǎn)的,隨著智能體的行動(dòng)自由程度擴(kuò)展,我們更應(yīng)該對(duì)其自由能力的限度加以限制與規(guī)范。
在這個(gè)背景下,人工智能作為一種“自主智能主體的架構(gòu)體系”(Autonomous Agents Architectures),其主體性或主體結(jié)構(gòu)有點(diǎn)類似于我們將人腦的某些功能(或類似人腦的某些功能)移至機(jī)器之中。如果說(shuō)人類主體性的生物學(xué)基礎(chǔ)是“神經(jīng)”,那么,人工智能的主體性是而且只能是對(duì)人類主體性的一種模仿。人類基于自己的生理結(jié)構(gòu)并通過(guò)接受教育與訓(xùn)練掌握道德判斷和道德選擇的能力,而如果要求人工智能體具備這種道德能力則是要機(jī)器進(jìn)行學(xué)習(xí)、模仿。人工智能體這種模仿的科學(xué)基礎(chǔ)和展現(xiàn)形式就是“算法”。由于算法是由人類輸入的,那么,問(wèn)題或難題隨之而來(lái):算法運(yùn)行期間出現(xiàn)的問(wèn)題由誰(shuí)來(lái)承擔(dān)責(zé)任?通過(guò)算法運(yùn)行形成模擬人類行為的能力是否可以看作具有主體地位的條件?它又在多大程度上具備和人類相似的權(quán)利和義務(wù)?這些問(wèn)題或難題,都是人工智能在發(fā)展過(guò)程中所必然要面對(duì)和解決的倫理難題。拋開(kāi)人工智能主體在多大程度上類似于人類主體不論,研究者指出:使人工智能產(chǎn)品成為智能主體(Agents)的關(guān)鍵要素就是“道德算法”(Moral Algorithm),即一種令自主性人工智能裝置學(xué)會(huì)負(fù)責(zé)任行動(dòng)的算法,它內(nèi)嵌于人工智能的算法體系之中3。
科學(xué)家們(如來(lái)自塔夫斯大學(xué)、布朗大學(xué)和倫斯勒理工大學(xué)等機(jī)構(gòu)的研究者們)正在開(kāi)發(fā)能成功植入機(jī)器人的道德算法。它為機(jī)器人正當(dāng)行動(dòng)提供“動(dòng)機(jī)”或“后果”方面的道德合理性運(yùn)算和善之定義,相當(dāng)于人類主體的自由意志,所以人工智能的道德建構(gòu)目前最可行的還是依賴于人類自主的道德建構(gòu)。這實(shí)際上是“算法從善”原則的具體呈現(xiàn)。未來(lái)分布在人類社會(huì)中的每一個(gè)自主機(jī)器人,不論是發(fā)揮輔助功能的機(jī)器人,還是提供娛樂(lè)服務(wù)或軍事服務(wù)的機(jī)器人等等,它們首先應(yīng)該是“懂道德”并“講道德”的機(jī)器人,“懂道德”的目的在于建立一種類似于人類的道德能力或道德智能,“講道德”的目的在于即使在更復(fù)雜的環(huán)境條件下依然不會(huì)傷害人類的利益并可以很好地為人類服務(wù),與人類發(fā)生合理之互動(dòng)?!岸赖隆笔菫椤爸v道德”來(lái)服務(wù)的,但“懂道德”一定是“講道德”的前提。它是人工智能體解決道德問(wèn)題的關(guān)鍵,不懂道德或不講道德的機(jī)器人沒(méi)有未來(lái)。那么,這是否意味著“AI2.0”的智能主體革命依系于一種“道德算法”的開(kāi)發(fā)呢?
不論科學(xué)家們做出怎樣的回應(yīng),至少有一點(diǎn)可以斷定:人工智能的主體模式之構(gòu)建,在“算法從善”的擬主體性維度,終歸是離不開(kāi)“道德算法”的規(guī)范性之指引的。
在這個(gè)問(wèn)題上,人類面臨倫理尺度上的一些不可回避的重大挑戰(zhàn)。美國(guó)計(jì)算機(jī)科學(xué)家Matthias Scheutz舉例說(shuō):“……挑戰(zhàn)有很多,例如理解道德判斷情境,可解決道德沖突的恰當(dāng)?shù)赖峦评砟芰?以及判斷適合的行動(dòng)路線等,還要將所有的算法以一種讓它們能堅(jiān)定地實(shí)時(shí)運(yùn)作之方式,布建在機(jī)器人架構(gòu)中?!?以醫(yī)療和戰(zhàn)場(chǎng)中的自主式機(jī)器人為例,當(dāng)面臨人類生命之生死抉擇難題時(shí),機(jī)器人應(yīng)該如何做決定?當(dāng)不當(dāng)決定導(dǎo)致原本可避免的傷害發(fā)生時(shí),那是誰(shuí)的責(zé)任?由于道德算法無(wú)法擺脫外部嵌入性、工程總體性、技術(shù)工具性、人工多樣性或不確定性以及機(jī)器人自主行為不可避免的機(jī)械性等局限帶來(lái)的深層困擾,我們定義何種道德準(zhǔn)則和規(guī)范可以而且應(yīng)該是嵌入到機(jī)器人算法體系中的道德算法,就變得更為緊要。在這個(gè)問(wèn)題上,人工智能的主體模式之構(gòu)建雖然凸顯了道德算法的重要性,但其更深層次且更為重要之方面,則無(wú)疑是人類為自己所立之“善法”。人工智能的倫理問(wèn)題將倫理學(xué)的焦點(diǎn)放在了審視人與物的關(guān)系之中,但這背后其實(shí)還是以人與人關(guān)系為核心的倫理學(xué)的基礎(chǔ)性視角。而加深考慮人與人之間的關(guān)系問(wèn)題,無(wú)疑有利于解決當(dāng)前在人機(jī)關(guān)系方面人類面臨的諸多挑戰(zhàn)。
“機(jī)器人(robot) 一詞的最初由來(lái),即是取意于‘奴隸、奴仆’?!?從機(jī)器人的誕生之初,就注定了它與人類地位是不對(duì)等的,這其中就包括了道德地位的不對(duì)等。一方面,人們既希望機(jī)器人的道德意愿是從屬于人類意愿之下的;另一方面,又在機(jī)器人身上寄托了高于人類的道德水平的期望,也就是能夠擺脫人類的直覺(jué)、情感等不確定因素做出更合理性之選擇的期望。這實(shí)際上是一種相互矛盾的道德期望:前一個(gè)方面是對(duì)一種不自主的道德的期望;后一個(gè)方面則是對(duì)一種自主的道德的期望。
人工智能體系統(tǒng)復(fù)雜程度大大增加的原因,就在于與道德相關(guān)的行動(dòng)目標(biāo)的確立——它是遵從了人類所認(rèn)可的“善”。亦即遵循“人為自己立法”的“善法”。而就目前來(lái)看,智能體的“善目標(biāo)”之確立仍然屬于“被操縱的”,因而其自主性之構(gòu)架仍然在人工性的范疇內(nèi)。也就是說(shuō),它實(shí)際上是其設(shè)計(jì)開(kāi)發(fā)者的行動(dòng)目標(biāo)或意圖的體現(xiàn)。于是,“道德算法”的重要意義在于,它在“算法正在與意識(shí)脫鉤”6的人工智能之革命性進(jìn)程中,增加了一個(gè)并沒(méi)有與人類的意識(shí)相脫鉤的重要的權(quán)重系數(shù)。由于這一權(quán)重系數(shù)變得日益重要,“道德算法”也就被納入到一種“責(zé)任倫理”視域。換句話說(shuō),在技術(shù)領(lǐng)域中設(shè)計(jì)者關(guān)注的重點(diǎn)不是僅限于它產(chǎn)生的技術(shù)效果,還應(yīng)該更加注重社會(huì)效果。在技術(shù)面前科學(xué)家不是被動(dòng)地只能被技術(shù)所選擇,技術(shù)發(fā)展到哪里科學(xué)家就實(shí)現(xiàn)到哪里,而是有主動(dòng)選擇讓不讓技術(shù)結(jié)果實(shí)現(xiàn)出來(lái)的權(quán)利和責(zé)任。而且,在一種“強(qiáng)—弱”不對(duì)等關(guān)系中,處于優(yōu)勢(shì)地位的人類面對(duì)目前相對(duì)弱勢(shì)且未來(lái)有可能將這種強(qiáng)弱關(guān)系顛倒的機(jī)器或機(jī)器人時(shí),在“道德算法”問(wèn)題上可能亟需一種新的責(zé)任倫理框架——因?yàn)?無(wú)論如何,人工智能的發(fā)展方向是要實(shí)現(xiàn)基于系統(tǒng)評(píng)估之后的自主判斷與價(jià)值選擇,也就是成為與人類行為模式所接近的主體性的道德選擇模式,這樣人工智能體就能夠更協(xié)調(diào)地與人類交流互動(dòng),建立信任。
三、人工智能的人工性:如何構(gòu)建算法從善的道德形態(tài)?
“算法從善”原則的第二個(gè)方面的倫理尺度,與人類主體模式下的道德建構(gòu)有關(guān),通過(guò)重審“為了人和人類利益”的人工性方面來(lái)矯正其“智能”開(kāi)發(fā)或發(fā)展的方向。
目前賦予人工智能以道德能力的算法遵循一個(gè)基本的目的論預(yù)設(shè),即一切算法必須是“為了人和人類利益”這個(gè)總體目標(biāo)或總體善。它在技術(shù)形態(tài)上大致上有三種:一是通過(guò)語(yǔ)義網(wǎng)絡(luò)擴(kuò)增道義邏輯,形成義務(wù)與許可概念;二是通過(guò)知識(shí)圖譜建立關(guān)聯(lián)法則,偵測(cè)道德判斷情境;三是通過(guò)云計(jì)算發(fā)掘相關(guān)關(guān)系,評(píng)估或預(yù)測(cè)行動(dòng)后果。道德算法由此將義務(wù)論、后果論、境遇倫理和契約倫理的基本原則融合到計(jì)算機(jī)電子算法之中,是嵌入在算法體系中且有待完善的開(kāi)放性算法程式。它本身是在不斷變化發(fā)展之中的,而非某種具體現(xiàn)存之物,也非某種一蹴而就或一勞永逸的終極預(yù)設(shè)。它作為一種人工建構(gòu),是一種通向“目的善”的“手段善”,因而依系于人類主體模式的道德建構(gòu)。在這個(gè)倫理尺度上,算法只有體現(xiàn)或遵循人類主體模式下的“善法”,才能以有責(zé)任感的方式推進(jìn)道德算法的進(jìn)化及其在機(jī)器中的嵌入。這是人工智能時(shí)代的道德建構(gòu)應(yīng)遵循的基本原則(即“算法從善”原則)的第二個(gè)方面的內(nèi)涵。在這里,“善法”一詞盡管抽象含混,其表征的人類主體性尺度在具體內(nèi)容上也可能引發(fā)爭(zhēng)論,但它在形式上則明確指向人類尺度上的兩種道德形態(tài)。
第一種道德形態(tài)由常見(jiàn)的人類主體模式主導(dǎo),涉及人類在拓展人工智能時(shí)可能帶來(lái)的所有倫理問(wèn)題。
特別說(shuō)來(lái),當(dāng)人們把人工智能視為一種工具時(shí),它的道德特殊性和道德重要性始終呼喚人類主體的道德責(zé)任之回歸。這是一種單純的規(guī)范性取向,即人類應(yīng)該通過(guò)有責(zé)任感的方式籌劃和迎接人工智能時(shí)代的來(lái)臨。賓夕法尼亞大學(xué)計(jì)算機(jī)科學(xué)教授Jonathan M.Smith說(shuō),“短期問(wèn)題非常重要,因?yàn)槿斯ぶ悄芴幱诩夹g(shù)和政策的邊界”7。如果我們不希望有人利用人工智能來(lái)鉆法律的空子,逃避或轉(zhuǎn)移我們努力在做出的社會(huì)政治決策,就需要在各主體層面(從人類主體到國(guó)家、社會(huì)、社群、企業(yè)以及相關(guān)機(jī)構(gòu)組成的集體主體,再到個(gè)人主體)建構(gòu)相應(yīng)的規(guī)范性框架。
因此,一種審慎的倫理表明,人工智能可能存在的最大威脅并非來(lái)自機(jī)器,而是來(lái)自人或人類的意圖和行動(dòng)??紤]到賦予機(jī)器人以道德能力的算法本質(zhì)上是模仿人類道德的算法,如果人類在道德問(wèn)題上不能獲得明確性(explicit),以算法形式在機(jī)器中展現(xiàn)人類道德又如何可能呢?問(wèn)題以悖謬方式彰顯了人工智能內(nèi)爆的道德形態(tài)建構(gòu)。它以某種方式回應(yīng)了James H. Moor提出的“倫理智能主體”(ethical agent)對(duì)道德明確性(explicit)的要求8,即具有自主道德能力的人工智能在面臨道德兩難的情境時(shí),或者在面對(duì)不同道德原則沖突時(shí),必須能夠做出明確的合理化決策。這種對(duì)道德明確性的要求,反過(guò)來(lái)構(gòu)造或描繪了人類尺度上的“善法”之特質(zhì),它倒逼人類主體模式盡一切可能走出可能會(huì)引發(fā)晦暗后果(甚至災(zāi)難)的各種道德模糊地帶。
總之,人工智能體畢竟是人類主導(dǎo)設(shè)計(jì)的產(chǎn)物。訴諸這一樸素常識(shí),意味著“算法從善”原則的重點(diǎn)必須是在人類主體模式的框架進(jìn)行。首先,這其中一定會(huì)有設(shè)計(jì)者的意向偏好參與。其次,由于人類自身的個(gè)體經(jīng)驗(yàn)有限性,不可能窮盡所有情境的可能性,這都會(huì)影響到人工智能體最終的道德完善性。所以,人類能在多大程度上完善自己的道德能力和人類主體模式的道德建構(gòu),就決定了人工智能體的道德能力建構(gòu)的水平。
第二種道德形態(tài)由人類主體與人工智能主體相處的“主體間”模式主導(dǎo),涉及人類主體與智能主體之間相互依存關(guān)系的道德建構(gòu)。
這是一個(gè)新的領(lǐng)域。道德算法只有在“‘人-機(jī)’交互主體間”的反復(fù)博弈中,才能不斷地矯正偏頗或錯(cuò)誤,進(jìn)一步升級(jí)和完善。“存在升級(jí)”的人工智能體必將進(jìn)入“人類-機(jī)器人”交互主體間性的交往世界9。以往我們確信,在交往過(guò)程中建立起來(lái)的社會(huì)屬性只是人類社會(huì)的基本屬性,人的社會(huì)性的基礎(chǔ)就在于人不僅能通過(guò)習(xí)慣對(duì)過(guò)去完成的行為進(jìn)行重復(fù),還可以在這些行為當(dāng)中發(fā)現(xiàn)關(guān)系從而建立新的聯(lián)系。但是,隨著人工智能體進(jìn)入“存在升級(jí)”的通道,由道德算法模擬人類道德行為的智能體或機(jī)器人就會(huì)被賦權(quán)且被看作是社會(huì)成員而具有社會(huì)屬性。這樣一來(lái) ,人工智能在道德上的建構(gòu)必然離不開(kāi)“人類-機(jī)器”和“機(jī)器-機(jī)器”的社會(huì)關(guān)系模式,并由之培養(yǎng)不斷升級(jí)或完善的社會(huì)屬性。新一代人工智能較上一代更加接近于人類自主能力,它通過(guò)道德算法在“主體間”關(guān)系中展現(xiàn)其個(gè)體的獨(dú)立性和行動(dòng)的自律。既然人工智能涉及對(duì)人的“自由意志”進(jìn)行模擬,那么道德責(zé)任的承擔(dān)問(wèn)題就是不可回避的議題。人類能夠并需要為自己的行動(dòng)負(fù)責(zé)的原因就在于行動(dòng)動(dòng)機(jī)是出于自己的自由意志并在現(xiàn)實(shí)中產(chǎn)生了效果。與此相類似,通過(guò)自主學(xué)習(xí)或深度學(xué)習(xí)的人工智能體在一種擬主體意義上可能進(jìn)入“存在升級(jí)”,從而進(jìn)入承擔(dān)道德責(zé)任之范疇。由此,人工智能的自主性就不僅僅表現(xiàn)在“替人勞作”或“替人思考”的方面,還有可能進(jìn)一步表現(xiàn)在“替人擔(dān)責(zé)”方面。
如果人工智能成為道德主體,進(jìn)而模擬人類責(zé)任行為,甚至比人類做得更好的話,那將意味著什么?如果那樣,人類是否會(huì)變得多余?這樣的擔(dān)憂,顯然涉及人類主體模式的邊界問(wèn)題,即人類主體與人工智能主體在相與時(shí)一種主體間的道德建構(gòu)所面臨的責(zé)任歸屬和區(qū)界問(wèn)題。這是一個(gè)糾纏不休的道德悖論:一方面,我們說(shuō),沒(méi)有道德或不講道德的人工智能是沒(méi)有未來(lái)的;另一方面,我們又說(shuō),有道德或講道德的人工智能則有可能會(huì)替人擔(dān)責(zé)并引發(fā)人類是否還有存在之必要的疑慮。哲學(xué)家趙汀陽(yáng)據(jù)此指認(rèn)說(shuō):“人工智能不僅是個(gè)技術(shù)問(wèn)題,同時(shí)也是哲學(xué)問(wèn)題?!?0在他看來(lái),更大更深的疑慮是來(lái)自一種存在論的困惑:“(1)人類到底是需要人工智能替人勞作,還是需要人工智能替人思考?(2)如果讓人工智能替人勞作,人類因此得以擺脫艱苦的勞動(dòng),那么,人類的生活會(huì)因此變得更好嗎?(3)如果人工智能獲得超越人的智慧,人工智能還需要人類嗎?人類文明還能夠延續(xù)嗎?或者,人類文明還有意義嗎?人類已經(jīng)習(xí)慣了帶來(lái)‘進(jìn)步’的新發(fā)明,但人類真的需要任何一種新發(fā)明嗎?”11雖然人工智能的運(yùn)行程序歸根到底還是由人類編寫(xiě)且一定是“為了人和人類利益”12,但是問(wèn)題依然縈繞在一種基礎(chǔ)存在論的憂思上:為了人和人類利益,我們有理由創(chuàng)制“替人勞作”的機(jī)器、“替人思考”的機(jī)器,但是當(dāng)“存在升級(jí)”的人工智能學(xué)會(huì)了道德上的“替人擔(dān)責(zé)”的責(zé)任行為時(shí),人類主體與智能主體之間的邊界何在?
面對(duì)詰問(wèn),我們這里強(qiáng)調(diào)指出,要從四個(gè)方面回應(yīng)上述存在論憂思,構(gòu)建“算法從善”的道德形態(tài):
第一,我們需要區(qū)分機(jī)器責(zé)任與人的責(zé)任,以明確其范圍及功能。
目前人工智能在對(duì)結(jié)果的評(píng)估上主要依靠大數(shù)據(jù)和算法。數(shù)據(jù)挖掘顯示的結(jié)果為人工智能提供了最優(yōu)化行動(dòng)方案。因此,智能主體面對(duì)現(xiàn)象上相同的狀況會(huì)做出毫無(wú)分別的選擇。當(dāng)然,也可能會(huì)出現(xiàn)自主機(jī)器人做出人類認(rèn)為在道德上有錯(cuò)誤的決定的情況。但是不管實(shí)際情況如何,由于在決策模式上機(jī)器遵循的道德算法可能與具體行動(dòng)中的個(gè)人遵循的道德規(guī)范不同,機(jī)器責(zé)任便只能由人的責(zé)任(人類機(jī)構(gòu)和組織的責(zé)任)所覆蓋,而不是相反。再者,人類可能會(huì)因?yàn)榍楦?、直覺(jué)等因素做出“更適合”于當(dāng)下情境的選擇,而且這種選擇模式從來(lái)都不是固定且單一的,這決定了機(jī)器人的責(zé)任行為不可能完全替代人類的責(zé)任行為。因此,區(qū)分何者是“機(jī)器責(zé)任”與何者是“人的責(zé)任”,且進(jìn)一步在責(zé)任的歸責(zé)層面界劃人工智能體的創(chuàng)制者、生產(chǎn)者、布建者、使用者和消費(fèi)者之間的責(zé)任,對(duì)于厘清“人-機(jī)”倫理關(guān)系,就變得非常重要。機(jī)器人“替人擔(dān)責(zé)”這一引發(fā)憂思之情景,應(yīng)該從一種“‘人-機(jī)’命運(yùn)共同體”的高度上獲得重新詮釋和重構(gòu)。在這個(gè)意義上,它不應(yīng)該成為我們拒絕機(jī)器人的原因;而是相反,應(yīng)該成為機(jī)器人或人工智能在責(zé)任倫理形態(tài)上得到改善和提升的契機(jī)。
第二,我們需要重申“為了人和人類利益”的價(jià)值目標(biāo),以構(gòu)建人類主體與人工智能體之間的“主體間道德”。
人工智能的決策正在由為人類提供輔助性方案向自主決策發(fā)展,且即將替代人類的某些勞作和思考。但這并不意味著人類要放棄對(duì)智能體的控制,甚至放棄人類應(yīng)負(fù)的責(zé)任。而是相反,人類必須學(xué)會(huì)在與人工智能體或機(jī)器人合作的事項(xiàng)上重新界定“人和人類的利益”,進(jìn)而在“人與機(jī)器的依系關(guān)系”中采取負(fù)責(zé)任的行動(dòng)。在這一點(diǎn)上,片面的“技術(shù)悲觀主義”和片面的“技術(shù)樂(lè)觀主義”的觀點(diǎn),都不能完整地理解人工智能體的道德地位,因而無(wú)助于良好的“人機(jī)關(guān)系”或“人機(jī)命運(yùn)共同體”的道德構(gòu)建。我們既不能過(guò)分夸大智能體所展現(xiàn)出來(lái)的“算法與意識(shí)相脫鉤”的方面,認(rèn)為人工智能將會(huì)獲得“無(wú)人約束”的自主發(fā)展,并最終替代人類甚至不再需要人類;又不能僅僅把它看作人的附庸而忽略它的未來(lái)發(fā)展的可能性。
第三,我們需要從人文價(jià)值高度重新厘定人工智能的“人工性”,以規(guī)避人工智能隱蔽的倫理風(fēng)險(xiǎn)。
人工智能作為一種技術(shù)發(fā)展到現(xiàn)在,已經(jīng)不能簡(jiǎn)單地置于傳統(tǒng)的“人-技術(shù)-世界”的框架下對(duì)待。它的人工性或工具性需要從人文價(jià)值高度上進(jìn)行更具深度、更為開(kāi)放的不斷的詮釋和理解。唯有如此,人工智能對(duì)于人類的意義才不會(huì)只是像馬克斯·韋伯所說(shuō)的僅為一種“中立性質(zhì)的手段”和“一般意義的工具”,而是內(nèi)含深厚人文價(jià)值尺度的技術(shù)展現(xiàn)形式。從這個(gè)角度看,人工智能的“人工性”之稱謂就存在某種程度的誤導(dǎo),需要以“人文性”視角發(fā)掘其中負(fù)載的人文價(jià)值選擇和責(zé)任。這是規(guī)避人工智能隱蔽的倫理風(fēng)險(xiǎn)的前提。比如,在伴侶機(jī)器人、護(hù)理機(jī)器人、醫(yī)療機(jī)器人和人工智能戰(zhàn)士等議題上,如果不能從人文價(jià)值高度上重新厘定人工智能的人工性之內(nèi)涵,就不可能對(duì)其產(chǎn)生的倫理風(fēng)險(xiǎn)有所預(yù)估,并在設(shè)計(jì)過(guò)程中加以準(zhǔn)確防范。
第四,我們需要強(qiáng)調(diào)以“不傷害”為底線的道德推理,以協(xié)同人類主體與智能主體的規(guī)范化指引。
在人類道德生活中,“義務(wù)論”和“后果論”是兩種經(jīng)典的道德推理框架。據(jù)此,我們需要對(duì)“不傷害原則”在道德算法上做進(jìn)一步細(xì)化。義務(wù)論的推理要件,在于一個(gè)行為的道德性判斷不在于其產(chǎn)生的結(jié)果,而在于行為本身,即從行為本身的動(dòng)機(jī)來(lái)看,它要以“不傷害”為行動(dòng)的出發(fā)點(diǎn),即使結(jié)果不盡如人意。“后果論”的道德推理則恰恰相反。行為是否應(yīng)該被我們采納的最終依據(jù),就在于它所達(dá)成的結(jié)果,亦即在結(jié)果上至少做到“不傷害”。因此,人工智能體的算法及其設(shè)計(jì)者首先需要在設(shè)計(jì)環(huán)節(jié)中從理念上對(duì)人工智能本身加以規(guī)范,也就是在類似于人類行為的“動(dòng)機(jī)”上對(duì)其提供義務(wù)與許可的約束機(jī)制,這就使機(jī)器人的道德行為具有了內(nèi)在價(jià)值;進(jìn)而再著眼于人工智能之主體行為的輸出結(jié)果上提供規(guī)范指引。這樣就從一種底線道德的意義上對(duì)人類主體和人工智能主體的規(guī)范化指引進(jìn)行協(xié)同或協(xié)調(diào)。
四、結(jié)語(yǔ)
人工智能進(jìn)入人們生活的直觀表征及其典型的道德形態(tài)特質(zhì),是以其擬主體形態(tài)而升級(jí)為“人”,其首要標(biāo)志就是“道德算法”。這如同人類始祖在“伊甸園”中以其“像神式”的主體形態(tài)第一次“升級(jí)”(舊約中使用的是“下降”)為人一樣,其突出標(biāo)志就是“知善惡”。這似乎是說(shuō),算法在一種存在論意義上規(guī)劃出兩個(gè)世界:一個(gè)是技術(shù)祛魅的世界,一個(gè)是道德祛魅的世界。
人工智能時(shí)代的道德,無(wú)論在智能主體模式之構(gòu)建的倫理尺度上,還是在人類主體模式之構(gòu)建的倫理尺度上,從技術(shù)和道德之雙重維度,實(shí)際上都預(yù)設(shè)了一條絕對(duì)命令—“讓算法遵循‘善法’”,或者,簡(jiǎn)稱之為“算法從善”。
這條絕對(duì)命令,隱含著人工智能在主體升級(jí)中有一條不可突破其“擬主體”身份的道德底線,因而其智能主體模式的道德建構(gòu)不可以對(duì)“人”說(shuō)“不”,而只能遵從“人為自己”所立之“善法”。然而,“為了人和人類利益”而為人工智能設(shè)置愛(ài)護(hù)人類的道德程序,在理論上似乎非常完備,但在實(shí)踐上有可能是一個(gè)無(wú)法實(shí)現(xiàn)的文學(xué)虛構(gòu)。比如,在自動(dòng)駕駛案例中,人工智能是愛(ài)護(hù)車上一個(gè)乘客而犧牲十個(gè)路人呢,還是愛(ài)護(hù)十個(gè)路人而犧牲車上一個(gè)乘客?它無(wú)論做何抉擇都會(huì)陷入一種道德悖論13?!叭斯ぶ悄芤坏┰噲D追求自身存在的最大效率,非常可能會(huì)主動(dòng)刪除人的道德程序——從人工智能的角度看,人類為其設(shè)置的道德程序等于是一種病毒?!?4這即是說(shuō),人工智能的主體構(gòu)建預(yù)設(shè)了另處一種可能,即在某種程度上或在某些特殊的情景下,人工智能體可以對(duì)“人”說(shuō)“不”。
為了避免這種悖論情況的出現(xiàn),人類主體需要達(dá)成一個(gè)基本共識(shí):人類在為人工智能設(shè)置算法從善的道德程序或原則時(shí),還必須為人工智能的實(shí)際創(chuàng)制及運(yùn)營(yíng)設(shè)置一條法律禁令,即在法律上禁止開(kāi)發(fā)對(duì)“人”說(shuō)“不”的人工智能。這條附加禁令實(shí)際上取消了人工智能的內(nèi)在價(jià)值,而只是將其擬主體的價(jià)值限定在了工具價(jià)值的范疇內(nèi)。
我們知道,在哲學(xué)史上,即使在具體何者本身具有內(nèi)在價(jià)值的問(wèn)題上存在諸多分歧,但普遍都會(huì)承認(rèn)確實(shí)存在如“自由”“尊嚴(yán)”等一些內(nèi)容本身不究其效用只察其本身就具有價(jià)值。從產(chǎn)品的設(shè)計(jì)目的上來(lái)看,人工智能的出現(xiàn)就是為了滿足更大多數(shù)人的利益要求,雖然技術(shù)的尺度可以無(wú)限制地延伸,但卻會(huì)對(duì)社會(huì)的價(jià)值信念、財(cái)富分配等造成非常深刻的影響。在價(jià)值選擇上,類似于“電車難題”的諸多兩難困境是令人工智能體難以抉擇的。這也是為什么無(wú)人駕駛汽車除技術(shù)因素之外還沒(méi)有被廣泛使用的重要倫理原因:它的選擇需要承擔(dān)巨大的道德風(fēng)險(xiǎn)。而一旦對(duì)他人或社會(huì)造成損失時(shí),責(zé)任承擔(dān)問(wèn)題也隨之而來(lái)。所以,人工智能的自主性發(fā)展以取代人類決策為目標(biāo),在倫理上是不可行的,在擴(kuò)大效用的同時(shí)人類還要看到它可能帶來(lái)的倫理傷害。雖然我們無(wú)法確定未來(lái)人工智能的高度發(fā)展是否可以讓其獲得同人類相等的地位,但在人類對(duì)算法的控制權(quán)上保持審慎是避免傷害的明智選擇。這也是在技術(shù)發(fā)展面前維護(hù)人類尊嚴(yán)的底線。
注釋
1劉海明:《媒體算法的價(jià)值糾纏與倫理誤區(qū)》,《湖南師范大學(xué)社會(huì)科學(xué)學(xué)報(bào)》2019年第1期。
2European Commission.Ethics Guidelines for Trustworthy AI.http://ec.europa.eu/futurium/ai-alliance-consultation/guidelines.
3美國(guó)塔夫斯大學(xué)計(jì)算機(jī)科學(xué)教授Matthias Scheutz主持該?!叭?機(jī)器人互動(dòng)實(shí)驗(yàn)室”(Human-Robot Interaction Laboratory,HRI Lab),他曾經(jīng)接受《電子工程專輯》美國(guó)版編輯專訪。Scheutz在專訪中表示,他的研究團(tuán)隊(duì)目前正在研究推理算法的不同設(shè)計(jì)選項(xiàng),例如擴(kuò)增道義邏輯(augmented deontic logic,形成義務(wù)與許可概念的邏輯),以及偵測(cè)出道德判斷情境的方式,這些研究主要是根據(jù)語(yǔ)言開(kāi)發(fā)所有支持道德推理之算法的控制架構(gòu)?!暗覀儾粫?huì)對(duì)機(jī)器人將被賦予的道德原則做出任何承諾,那應(yīng)該是機(jī)器人布署者的任務(wù)——他們負(fù)責(zé)定義道德準(zhǔn)則、規(guī)范等等?!鞭D(zhuǎn)自《電子工程專輯》,JY編譯:“賦予機(jī)器人以道德算法”,(2014-07-24)http://www.robot-china.com/news/201407/24/12485.html。
4參見(jiàn)機(jī)器人網(wǎng)2014年7月24日轉(zhuǎn)載《電子工程專輯》的編輯專訪,JY編譯:“賦予機(jī)器人以道德算法”,http://www.robot-china.com/news/201407/24/12485.html。
5杜嚴(yán)勇:《論機(jī)器人道德能力的建構(gòu)》,《自然辯證法研究》2018年第5期。
6尤瓦爾.赫拉利在《未來(lái)簡(jiǎn)史》一書(shū)中談到“如果把視野放大到整個(gè)生命,其他的問(wèn)題或發(fā)展的重要性,都比不過(guò)以下三項(xiàng)彼此息息相關(guān)的發(fā)展”,在他談及三項(xiàng)發(fā)展中,第二項(xiàng)即是“智能正與意識(shí)脫鉤”。見(jiàn)尤瓦爾·赫拉利著,林俊宏譯:《未來(lái)簡(jiǎn)史:從智人到神人》,北京:中信出版社,2017年版,第360-361頁(yè)。
7Jonathan M.Smith是賓夕法尼亞大學(xué)的計(jì)算機(jī)科學(xué)教授,是計(jì)算機(jī)機(jī)械協(xié)會(huì)組織的成員。引文參見(jiàn)網(wǎng)易智能訊2017年6月7日消息,“如何迎接人工智能?我們需要倫理算法和道德編程”,見(jiàn)網(wǎng)頁(yè):http://mini.eastday.com/a/170706083046899.html。
8參見(jiàn)機(jī)器人網(wǎng)2014年7月24日轉(zhuǎn)載《電子工程專輯》的編輯專訪,JY編譯:“賦予機(jī)器人以道德算法”,http://www.robot-china.com/news/201407/24/12485.html。
9趙汀陽(yáng):《人工智能“革命”的“近憂”和“遠(yuǎn)慮”——一種倫理學(xué)和存在論的分析》,《哲學(xué)動(dòng)態(tài)》2018年第4期。
10趙汀陽(yáng):《人工智能“革命”的“近憂”和“遠(yuǎn)慮”——一種倫理學(xué)和存在論的分析》,《哲學(xué)動(dòng)態(tài)》2018年第4期。
11趙汀陽(yáng):《人工智能“革命”的“近憂”和“遠(yuǎn)慮”——一種倫理學(xué)和存在論的分析》,《哲學(xué)動(dòng)態(tài)》2018年第4期。
12無(wú)論人工智能是否具有了自主的決策能力,其行為的最終歸屬仍然是設(shè)計(jì)者,是人類賦予人工智能以學(xué)習(xí)、決策、行動(dòng)和道德的能力。
13趙汀陽(yáng):《人工智能“革命”的“近憂”和“遠(yuǎn)慮”——一種倫理學(xué)和存在論的分析》,《哲學(xué)動(dòng)態(tài)》2018年第4期。
14趙汀陽(yáng):《人工智能“革命”的“近憂”和“遠(yuǎn)慮”——一種倫理學(xué)和存在論的分析》,《哲學(xué)動(dòng)態(tài)》2018年第4期。
聯(lián)系客服