最近,位于德國的一家汽車制造廠里,一臺(tái)高度自動(dòng)化的機(jī)器人突然出現(xiàn)了錯(cuò)誤操作,抓起旁邊的一名安裝工人,摔向了一塊金屬板,造成該工人不幸罹難。消息一出,輿論嘩然:加上不久之前剛剛上映的電影《超能查派》,很多人開始擔(dān)心,以后科技進(jìn)步了,會(huì)不會(huì)出現(xiàn)特別聰明的機(jī)器人,背叛了人類的意志,最終成為《終結(jié)者》里那樣主宰世界的機(jī)器霸主?另外,如果機(jī)器人真的殺人了,誰該為這樣的兇殺承擔(dān)責(zé)任?
其實(shí)啊,這事還真沒那么可怕啦。
在討論之前,我們不妨先來劃定一個(gè)范圍,什么樣的東西,才算是機(jī)器人呢?
實(shí)際上,這個(gè)問題并沒有確切的答案,因?yàn)殡S著科技的發(fā)展,科學(xué)家們給出的定義被不斷刷新。通常認(rèn)為,對(duì)自己具有一定的控制和感知能力,能夠自主完成一定的動(dòng)作的機(jī)器裝置,就可以算做機(jī)器人。
這里所說的“自主”,又有兩層意思:第一種,是按照人類預(yù)先給它設(shè)定好的程序,按部就班地執(zhí)行下去,實(shí)現(xiàn)人類設(shè)計(jì)好的功能。這種機(jī)器人如今已經(jīng)非常普遍,大到登月的“玉兔”號(hào)探測(cè)器,小到家用的掃地機(jī)器人,都屬此類。
也就是說,這類機(jī)器人要去做什么事情,都是它的制造者說了算的,它只是一個(gè)工具,并不擁有真正的自主意志——和原始人手里的石斧并沒有本質(zhì)差別;區(qū)別只在于這種工具比較“聰明”,能夠根據(jù)實(shí)際工作的情況,更靈活、更精確地實(shí)現(xiàn)主人設(shè)定的程序,完成更加復(fù)雜而精確的行動(dòng),就像在坑洼不平的路面,坐汽車肯定比坐牛車舒服。
第二種就有點(diǎn)嚇人了,這種機(jī)器人擁有一定的人工智能(AI),能夠自主學(xué)習(xí)和獨(dú)立思考,在人類給它設(shè)定的程序之外,實(shí)現(xiàn)人類沒有教給它的功能,就像電影里的查派和終結(jié)者。這種機(jī)器人的行為是不可預(yù)測(cè)的,就像我們看到一個(gè)襁褓中的孩子,也不可能知道他將來會(huì)成為怎樣的人,做出怎樣的事情來?
提到機(jī)器人“謀殺”人類的問題,第一種機(jī)器人顯然不在討論之列,因?yàn)檎G闆r下它們并沒有被設(shè)定殺人的程序,哪怕是真的判斷失誤而誤傷人類,那也只能是意外事故;即便是有誰使壞,故意給機(jī)器人裝了危險(xiǎn)的指令,此刻的機(jī)器人依然還是一個(gè)工具而已,并沒有自主的意志。
這一類機(jī)器人致人死亡的事情,實(shí)際并不算罕見,比如本文開頭提到的這起事故。理由也很簡(jiǎn)單,任何人類制造出來的東西,都不可能100%地確保不出故障;而越是功能復(fù)雜、制造精密的系統(tǒng),發(fā)生故障的概率就越難降低。回想一下,這些年人類發(fā)射的無人航天器,從菲萊、玉兔到新視野號(hào),盡管都代表了當(dāng)時(shí)最先進(jìn)的科學(xué)技術(shù),但多多少少都有掉過鏈子。
機(jī)器出了故障就有可能對(duì)人類造成傷害,人類能做的只能是盡量降低故障率,加強(qiáng)安全防護(hù),卻不能因噎廢食,放棄機(jī)器人的運(yùn)用。全世界范圍內(nèi),因?yàn)槠嚦霈F(xiàn)故障而致人類死亡的案例每天、每小時(shí)甚至每分鐘都在發(fā)生,但汽車依舊是人類最青睞的機(jī)器;同理,我們也沒有必要對(duì)機(jī)器人苛求永不犯錯(cuò)。
盡管從理論上說,第二種機(jī)器人完全可能以“自主的決定”去殺害人類,但令人寬慰的是,囿于科技的發(fā)展水平,目前世界上還沒有造出一種和人類能力接近的人工智能(AI),所以我們暫時(shí)還不用擔(dān)心這事。
但是,還有一類介于這兩者之間的機(jī)器人,還真的可能會(huì)成為人類的殺手,那就所謂的戰(zhàn)爭(zhēng)機(jī)器人(killer robot)。
目前大家所熟悉的“掠食者”無人機(jī),本質(zhì)就是戰(zhàn)爭(zhēng)機(jī)器人,但它依然屬于我們說的第一類機(jī)器人,導(dǎo)彈要鎖定誰、要不要發(fā)射都是由坐在基地里的人類遙控決定的。然而,一些國家已經(jīng)在研制自動(dòng)化程度更高的戰(zhàn)斗機(jī)器人,允許它們?cè)趹?zhàn)場(chǎng)上自主尋找、選擇目標(biāo),再自己決定是否開火。顯然,這類機(jī)器人如果出現(xiàn)故障或者誤判,后果會(huì)比工廠里的焊接機(jī)器人嚴(yán)重得多。今年3月,聯(lián)合國秘書長潘基文先生曾公開呼吁各國停止此類研究,但似乎收效甚微
可以預(yù)見的是,制造機(jī)器人的科學(xué)技術(shù)仍會(huì)不斷發(fā)展,而人類對(duì)于機(jī)器人的運(yùn)用也會(huì)越來越廣泛,無論是居家生活、工業(yè)生產(chǎn)中都是如此。比如,谷歌公司一直在研究的無人駕駛汽車,或許數(shù)年之后就會(huì)行駛在馬路上。
因此,如何盡量避免“機(jī)器殺人”的危險(xiǎn)出現(xiàn),就是一個(gè)很有現(xiàn)實(shí)意義的問題了。
對(duì)于第一種機(jī)器人(也就是目前使用的機(jī)器人)而言,除了在設(shè)計(jì)、調(diào)試時(shí)更加謹(jǐn)慎之外,最實(shí)際的措施就是減少人類和機(jī)器人直接接觸的機(jī)會(huì)。對(duì)于有固定工作地點(diǎn)的機(jī)器人(比如流水線上的機(jī)器臂),可以設(shè)置物理隔離并劃定危險(xiǎn)區(qū)域,禁止無關(guān)人員靠近;對(duì)于能自主走動(dòng)的機(jī)器人(比如掃地、送外賣的機(jī)器人),則可以加裝規(guī)避裝置,讓它和人類時(shí)刻保持安全距離。此外,給每臺(tái)機(jī)器人加裝操作簡(jiǎn)便的“紅色按鈕”,確保在它出現(xiàn)錯(cuò)誤動(dòng)作時(shí),人類能夠一鍵關(guān)停。
對(duì)于第二種機(jī)器人(具有自主思維能力的AI機(jī)器人),實(shí)際上并沒有確切的預(yù)防方法,因?yàn)檎l也不知道真正的人工智能將會(huì)如何思考、如何學(xué)習(xí),如何理解人類的情感?一種可能的思路是,按照科幻小說作家阿西莫夫提出的“機(jī)器人三定律”來制約人工智能,將“機(jī)器人不得傷害人類”、“不能眼見人類處于危險(xiǎn)而袖手旁觀”原則貫穿整個(gè)開發(fā)工作的始終,“從小開始”培養(yǎng)智能機(jī)器人對(duì)于人類的服從與善意。
聯(lián)系客服