霍金、馬斯克提醒人們關(guān)注人工智能威脅
2015年01月12日16:58 來源:eNet硅谷動力
今天下午,物理學(xué)家和宇宙學(xué)家霍金、特斯拉及Space X創(chuàng)始人馬斯克等百余名位科學(xué)家、企業(yè)家、投資者聯(lián)名簽署了一封公開信,提醒人們關(guān)注人工智能的安全性和社會效益,讓人工智能按照人類的意愿工作,在規(guī)避潛在威脅的同時從中獲益。未來人工智能必將無處不在,所以其安全性就顯得十分重要,不禁讓人思考是否應(yīng)該將阿西莫夫的“機(jī)器人三定律”以立法的形式確定下來以防不法之徒利用機(jī)器人傷害人類。
1942年,阿西莫夫在短篇小說"Runaround"(《環(huán)舞》)中首次提出了三定律:
內(nèi)容如下: 第一,人類給予機(jī)器人的工作系統(tǒng)應(yīng)該符合最合法和職業(yè)化的安全與道德標(biāo)準(zhǔn); 第二,機(jī)器人必須對人類命令做出反應(yīng),但只能對特定人類的某種命令做出反應(yīng); 第三,在不違反第一定律和第二定律的前提下,當(dāng)人類和機(jī)器人判斷決策力之間的控制能順利轉(zhuǎn)換時,機(jī)器人對其自身的保護(hù)應(yīng)有一定的自主性。
一.機(jī)器人不得傷害人,也不得見人受到傷害而袖手旁觀
二.機(jī)器人應(yīng)服從人的一切命令,但不得違反第一定律
三.機(jī)器人應(yīng)保護(hù)自身的安全,但不得違反第一、第二定律
以后又加了個第零定律,機(jī)器人必須保護(hù)人類的整體利益不受傷害。阿西莫夫機(jī)器人三大定律已不適用?有待更新。
來自: 宇鐳(已到魔都,尋組織) 2009-08-24 15:58:29
雖然這可能會導(dǎo)致“天網(wǎng)”(譯者注:參見電影?終結(jié)者?)的出現(xiàn),但也意味著,一輛機(jī)器人控制的汽車不會開向險崖,也不會出現(xiàn)突然的猛烈轉(zhuǎn)彎。
伍茲說,許多有關(guān)于機(jī)器人更危險的預(yù)測是于機(jī)器人軟件開發(fā)者們的想法造成的,這些人不了解制作軟件的危險,而當(dāng)他們的機(jī)器人變得像?銀河系漫游指南?中的一樣(譯者注:應(yīng)該是指小說中的機(jī)器人馬文,患有憂郁癥),他們也不愿意承擔(dān)這個責(zé)任。
正如小說中所描繪的:“它或者癱瘓,或者吵吵鬧鬧,或者一動起來就磨擦不停—你可高興不起來—因?yàn)樗粤四愕拿弊樱蛘吆湍愕呢堖渥鰫?,或者把油灑在地板上,或者掀翻你的門。當(dāng)它這么做時,你再也忍受不了了。”
聯(lián)系客服