中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
如何制造有道德的機(jī)器人?

圖片來(lái)源:Pixabay


編者按

2018年12月18日,歐盟人工智能高級(jí)別專家組(AI HLEG)正式向社會(huì)發(fā)布了一份人工智能道德準(zhǔn)則草案DRAFT ETHICS GUIDELINES FOR TRUSTWORTHY AI。在許多人擔(dān)憂人工智能取代人類、破壞倫理的大背景下,該草案旨在指導(dǎo)人們制造一種“可信賴的人工智能”。那么,如何才能讓機(jī)器人更令人信賴?可否賦予它們道德修養(yǎng)呢?


就此話題,我們采訪了美國(guó)匹茲堡大學(xué)科學(xué)哲學(xué)和科學(xué)史系杰出教授、西安交通大學(xué)長(zhǎng)江講座教授科林·艾倫(Colin Allen)。艾倫長(zhǎng)期致力于哲學(xué)與計(jì)算交叉領(lǐng)域,曾獲得美國(guó)哲學(xué)學(xué)會(huì)頒發(fā)的巴韋斯終身成就獎(jiǎng)。在與耶魯大學(xué)教授溫德爾·瓦拉赫合著的《道德機(jī)器:如何讓機(jī)器人明辨是非》一書中,艾倫認(rèn)為:盡管完備的機(jī)器道德智能體(AMAs)還很遙遠(yuǎn),但是目前仍有必要,而且有可能開始建構(gòu)一種功能性道德,從而使人工道德智能體具有基本的道德敏感性。


今天,讓我們一起來(lái)看看艾倫對(duì)人工智能與道德問題的理解。

 

采訪 | 王小紅(西安交通大學(xué)計(jì)算哲學(xué)實(shí)驗(yàn)室中方主任)

翻譯 | 楊冰潔、高元昊

譯校 | 王小紅

責(zé)編 | 惠家明


  ●         


1. 什么是人工智能的“道德”?

艾倫:人工智能的“道德”,或者說(shuō),“道德機(jī)器”(moral machine)、“機(jī)器道德”(machine morality),有很多不同的含義。在此,我將這些含義歸為三大類。在第一種含義中,機(jī)器應(yīng)具有與人類完全相同的道德能力。第二種含義中,機(jī)器不用完全具備人類的能力,但它們對(duì)道德相關(guān)的事實(shí)應(yīng)該具有敏感性,并且能依據(jù)事實(shí)進(jìn)行自主決策。第三種含義則是說(shuō),機(jī)器設(shè)計(jì)者會(huì)在最低層面上考慮機(jī)器的道德,但是并沒有賦予機(jī)器人關(guān)注道德事實(shí)并做出決策的能力。

 

就目前而言,第一種含義所設(shè)想的機(jī)器仍是一個(gè)科學(xué)幻想,我們并不知道應(yīng)該如何實(shí)現(xiàn)它。所以,我在《道德機(jī)器》一書中略過(guò)了對(duì)它的探討,而更有興趣探討那些介乎第二、第三種意義之間的機(jī)器。當(dāng)下,我們希望設(shè)計(jì)者在設(shè)計(jì)機(jī)器人時(shí)能夠考慮道德因素。這是因?yàn)椋?strong>在沒有人類直接監(jiān)督的情況下,機(jī)器人可能將在公共領(lǐng)域承擔(dān)越來(lái)越多的工作。這是我們第一次創(chuàng)造可以無(wú)監(jiān)督地運(yùn)行的機(jī)器,這也是人工智能倫理問題與以往一些科技倫理問題之間最本質(zhì)的區(qū)別。在這樣的“無(wú)監(jiān)督”情境中,我們希望機(jī)器能夠做出更道德的決策,希望對(duì)機(jī)器的設(shè)計(jì)不僅僅要著眼于安全性,更要關(guān)注人類在乎的價(jià)值問題。

 

科林·艾倫

來(lái)源:http://www.pitt.edu/~pittcntr/Being_here/photo_album/2014-15_albums/09-19-14_allen/DSC01601.JPG


2. 如何讓人工智能具有道德呢?



艾倫:首先要說(shuō)的是,人類自己還不是完全道德的,將一個(gè)人培養(yǎng)成有道德的人可不是一件容易的事。我們?nèi)祟惖谋举|(zhì)都是出于利己主義做事,而不考慮他人的需求和利益。然而,一個(gè)道德的智能體必須學(xué)會(huì)克制自己的欲望以方便他人。但我們現(xiàn)在構(gòu)建的機(jī)器人,其實(shí)并不具有自己的欲望,也沒有自己的動(dòng)機(jī),因?yàn)樗鼈儧]有自私的利益。所以,訓(xùn)練人工智能和訓(xùn)練人的道德是有很大差異的。對(duì)機(jī)器的訓(xùn)練問題在于,我們?cè)鯓硬拍苜x予機(jī)器一種能力,讓它敏感地察覺到那些對(duì)人類的道德價(jià)值觀而言是重要的事情。此外還有一個(gè)問題,機(jī)器需要認(rèn)識(shí)到它的行為是否會(huì)對(duì)人類造成痛苦嗎?我認(rèn)為是需要的。我們可以考慮通過(guò)編程使機(jī)器按照這種方式行事,且無(wú)需考慮怎么讓機(jī)器人優(yōu)先考慮他者利益,畢竟目前的機(jī)器還不擁有利己的本能。

 

3. 發(fā)展人工智能的道德應(yīng)采用怎樣的發(fā)展模式?


艾倫:我們?cè)凇兜赖聶C(jī)器》中討論了機(jī)器道德發(fā)展模式,我們認(rèn)為,“自上而下”和“自下而上”相混合的模式是這一問題的最佳答案。首先,我想來(lái)談一談“自上而下”和“自下而上”意味著什么。我們以兩種不同的方式使用著這兩個(gè)術(shù)語(yǔ)。一個(gè)是工程的視角,也就是一些技術(shù)和計(jì)算機(jī)科學(xué)的視角,例如機(jī)器學(xué)習(xí)和人工進(jìn)化(artificial evolution),而另一個(gè)則是倫理學(xué)視角。機(jī)器學(xué)習(xí)和人工進(jìn)化并不從任何原則開始,它們只是試圖使機(jī)器符合特定類型的行為描述,并且在給定輸入使機(jī)器以這種方式行事時(shí),它的行為能夠符合特定類型,這叫“自下而上”。與之相比,自上而下的方法則意味著一個(gè)清晰的、將規(guī)則賦予決策過(guò)程的模式,并且試圖寫出規(guī)則來(lái)指導(dǎo)機(jī)器學(xué)習(xí)。我們可以說(shuō),在工程領(lǐng)域中,自下向上是從數(shù)據(jù)當(dāng)中學(xué)習(xí)經(jīng)驗(yàn),而自上向下則是用確定的規(guī)則進(jìn)行預(yù)編程。

 

在一些倫理學(xué)領(lǐng)域也有這種“上下之別”,比如康德,還有更早些時(shí)候的功利主義學(xué)派,如邊沁和密爾,他們就更像是“自上而下”。這些學(xué)者試圖制定規(guī)則以及普遍原則,以便通過(guò)這些“條條框框”判斷出一個(gè)行為是不是道德的。這樣對(duì)康德的道德律令而言,其涵義就包含著多項(xiàng)具體規(guī)則,例如“不撒謊”。

 

但是在西方傳統(tǒng)中,亞里士多德對(duì)于道德持有相當(dāng)不同的觀點(diǎn)。他認(rèn)為,道德應(yīng)當(dāng)是一個(gè)人通過(guò)訓(xùn)練而習(xí)得的。因此,亞里士多德的觀點(diǎn)就更傾向于一種自下向上的方法,這種方法就是一個(gè)人通過(guò)練習(xí)變得好、善良、勇敢。當(dāng)踐行道德的時(shí)候,我們就稱之為美德倫理。通過(guò)這樣做,一個(gè)人會(huì)變得更具美德、會(huì)有更好的行為。

 

若問人類是怎樣做的,我還是認(rèn)為,亞里士多德的看法更正確。因?yàn)槲覀內(nèi)祟惒⒉皇强俊跋古鱿棺病比ヰB(yǎng)成習(xí)慣的,我們也會(huì)對(duì)習(xí)慣進(jìn)行思考,并且思考我們是否需要那些原則。亞里士多德注意到,在原則灌輸和習(xí)慣訓(xùn)練之間存在著一種相互作用。我們認(rèn)為,這種途徑同樣也適用于人工道德智能體的構(gòu)建。在很多實(shí)時(shí)決策的情境下,我們并沒有足夠的時(shí)間來(lái)反思行為背后的理論或原則含義。但是,我們還可以從錯(cuò)誤中學(xué)習(xí),因?yàn)槲覀兛梢允褂眠@些自上向下的原則重新評(píng)估我們所做的事情,之后再進(jìn)行調(diào)整和重新訓(xùn)練以便在下一次做得更好。

 

這就是混合方法的基本思路,我認(rèn)為它確實(shí)符合人類的情形。舉個(gè)例子,當(dāng)你還是個(gè)孩童時(shí),你對(duì)兄弟姐妹做了什么不好的事情,父母會(huì)說(shuō)“如果這種事情發(fā)生在你身上,你會(huì)有何感受呢”,是吧?在許多道德傳統(tǒng)中都有這樣一種原則:“以你自己對(duì)待自己的方式,或是你希望被別人對(duì)待的方式去對(duì)待他人”,有時(shí)人們也稱這一原則為黃金法則。所以,你不僅僅被告知不要那樣做,也并不僅僅因此而受罰,實(shí)際上你會(huì)被告知去思考這樣做為何是好的或不好的,這就是“自上而下”與“自下而上”的結(jié)合。

 


4. 我們應(yīng)該限制人工智能的發(fā)展嗎?


艾倫:我認(rèn)為,這取決于其應(yīng)用的領(lǐng)域。我現(xiàn)在并不擔(dān)心機(jī)器人或人工智能會(huì)取代人類,我也不認(rèn)為人類正處在這一危險(xiǎn)的邊緣。如果情況變得危險(xiǎn),我們是有能力去阻止它的。比如說(shuō),如果我們突然間看到機(jī)器人可以開始生產(chǎn)機(jī)器人,我們所需要做的無(wú)非就是切斷電源。

 

當(dāng)然,如果我們能辦到的話,確實(shí)存在一些應(yīng)當(dāng)停止人工智能應(yīng)用的地方,其中一個(gè)就是人們正致力開發(fā)的軍事領(lǐng)域。我們應(yīng)當(dāng)擁有人工智能武器嗎?我認(rèn)為這是應(yīng)該極力避免的,并且我在各種方面都對(duì)此持悲觀態(tài)度。因?yàn)閺娜祟惖臍v史來(lái)看,一旦有人構(gòu)想出一個(gè)武器,那將很難阻止另一些人的欲望及其為之奮斗的野心。在這方面,核武器和無(wú)人機(jī)就是很好的例子。所以,人工智能武器時(shí)代或許真的將要來(lái)臨,但如果我們能阻止它的話,我會(huì)對(duì)此十分支持。

 

但是,我不認(rèn)為我們應(yīng)該阻止其他形式的人工智能發(fā)展。我們需要思考技術(shù)對(duì)生活帶來(lái)了怎樣的后果,比如說(shuō),自動(dòng)駕駛汽車會(huì)使行人過(guò)馬路更困難,還是更加容易呢?自動(dòng)駕駛汽車面臨行人過(guò)馬路的情形時(shí)應(yīng)附加什么樣的權(quán)限呢?無(wú)人車看到行人能不能安全停下,還是說(shuō)它像人類司機(jī)一樣,依然有可能撞到行人?這些都是我們需要對(duì)人工智能進(jìn)行思考的問題。不過(guò)話說(shuō)回來(lái),我覺得無(wú)人駕駛汽車不該停止發(fā)展,反而應(yīng)該投入更多。

 

5. 機(jī)器人會(huì)變得更好還是更危險(xiǎn)?


艾倫:過(guò)去十年來(lái),人工智能在某些方面的飛速發(fā)展是有點(diǎn)令人吃驚,但仍然算不上滿意。在我看來(lái),未來(lái)的十年內(nèi),無(wú)人駕駛汽車投放到真實(shí)路況中的可能性不大。我也非常驚訝,蘋果公司推出了一個(gè)可以交談的智能體Siri——蘋果公司也是第一個(gè)這樣做的公司——但以現(xiàn)在的情形來(lái)看,Siri很糟糕不是嗎?

 

所有我使用過(guò)的類似產(chǎn)品,諸如Alexa, Google Talk, 都不盡人意。所以從很多層面來(lái)看,我現(xiàn)在并不會(huì)從倫理的視角對(duì)人工智能的飛速發(fā)展過(guò)于擔(dān)心。我很驚訝這些企業(yè)居然真的發(fā)布了這些產(chǎn)品,但更令我驚奇的是,人們居然在很大程度上調(diào)整了自身的行為以適應(yīng)人工智能。你以一種絕非與人類對(duì)話的方式和Siri交談,因?yàn)槟阒腊裇iri當(dāng)成正常人來(lái)交談的話,它將永遠(yuǎn)不會(huì)明白你的意思。因此,你調(diào)整了你的話語(yǔ),以便機(jī)器更容易讀懂你的想法。這是人類在做出調(diào)整,并非是機(jī)器作出調(diào)整,因?yàn)闄C(jī)器并不是一個(gè)自適應(yīng)的系統(tǒng)?;蛘哒f(shuō),它比人類具有更弱的適應(yīng)性。而這,就是最令我擔(dān)心的。

 

當(dāng)然,我所擔(dān)心的并不是機(jī)器做的事情超出人類的預(yù)想,而是它們可能改變并限制我們的行為。AlphaGo贏了圍棋,但它并未改變我們的日常生活,所以這沒什么好擔(dān)心的。我擔(dān)心人們用愚笨的方式與機(jī)器交談,以便機(jī)器按照我們的想法做事。要知道,這具有許多潛在的危險(xiǎn)。它潛移默化地改變我們的習(xí)慣行為,使我們對(duì)某些類型的錯(cuò)誤更具容忍性而對(duì)有些錯(cuò)誤卻更加苛刻。人們會(huì)預(yù)料到并且能容忍人類所犯的道德錯(cuò)誤,但是,人類可能不會(huì)容忍這樣的錯(cuò)誤在機(jī)器上發(fā)生。經(jīng)過(guò)規(guī)劃考慮后仍對(duì)他人造成傷害的決定如果發(fā)生在機(jī)器上,會(huì)比發(fā)生在人類身上更不能令人容忍。在過(guò)去十年內(nèi),這種改變已經(jīng)發(fā)生了。即使軟件會(huì)變得更好,機(jī)器也會(huì)變得更好,但是永遠(yuǎn)都存在著讓人類去適應(yīng)機(jī)器而非真正提高人類能力的危險(xiǎn)。

 

圖片來(lái)源:wikipedia

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
?閆坤如:人工智能機(jī)器具有道德主體地位嗎?
機(jī)器人倫理學(xué):機(jī)器的倫理學(xué)還是人的倫理學(xué)?
思考:人工智能的道德標(biāo)準(zhǔn)尺度是什么?機(jī)器人應(yīng)該被允許投票嗎?
人工智能革命,未來(lái)機(jī)器人會(huì)控制人類嗎?
人工智能進(jìn)化史
圖靈其實(shí)是想造一臺(tái)具有人類智能的計(jì)算機(jī)丨《艾倫·圖靈傳》導(dǎo)讀直播回放
更多類似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服