編者按:近年來,人工智能這個話題大熱。一些科幻電影中,人工智能的發(fā)展最終無法抑制,成為了人類文明的終結(jié)者。一些大牛們,如比爾蓋茨、霍金,都對人工智能的發(fā)展提出了警告;不過也有人認(rèn)為,人工智能在現(xiàn)在階段并不是什么威脅。且看這篇文章的論點。
2014年,SpaceX的CEO Elon Musk發(fā)推說:“Bostrom的《超級智慧(Superintelligence)》非常值得一讀。對待AI,我們需要小心翼翼?!?同年,劍橋大學(xué)的宇宙學(xué)家史蒂芬·霍金(Stephen Hawking)在接受BBC的訪問時說:“完全的人工智能(full artificial intelligence)的發(fā)展可能會導(dǎo)致人類的終結(jié)。” 微軟聯(lián)合創(chuàng)始人比爾·蓋茨(Bill Gates)也警告說:“關(guān)于AI,我持謹(jǐn)慎懷疑態(tài)度。”
關(guān)于AI帶來的世界末日將如何展開,計算機科學(xué)家Eliezer Yudkowsky在2008年發(fā)表的《全球災(zāi)難風(fēng)險(Global Catastrophic Risks)》中提出:AI在未來從單細胞生物發(fā)展到人類智力水平的可能性有多大呢?他回答道:“形成一個物理意義上的大腦是可能的,其計算的速度是人類大腦的一百萬倍....如果人腦因此而加速,主觀上一年的思考將在31秒內(nèi)就完成了,一千年將在八個半小時內(nèi)就過去了?!?Yudkowsky認(rèn)為,如果我們不這么做就太晚了:“人工智能所運行的時間維度與我們不同,當(dāng)你的神經(jīng)元完成思考說‘我應(yīng)該做這件事情’時,你已經(jīng)錯過時機了?!?/p>
牛津大學(xué)哲學(xué)家尼克·博斯特羅姆(Nick Bostrom)在他的《超級智慧(Superintelligence)》中提出所謂的回形針最大化的思想實驗:一個AI被設(shè)計來制造回形針,并且在耗盡其最初的原材料供應(yīng)之后,它將利用在其可達范圍內(nèi)的任何可用原子,包括人類。正如他在2003年的一篇論文中所描述的那樣,從那時開始“首先轉(zhuǎn)化整個地球,為回形針制造設(shè)施增加空間”。短時間內(nèi),整個宇宙都由回形針和回形針制造器組成。
對此,我表示懷疑。首先,所有這樣的末日情景都涉及一長串的“如果-那么(if-then)”意外事件,在任何點的失敗都會推到所謂的世界末日。西英格蘭布里斯托大學(xué)的電氣工程教授艾倫·溫菲爾德(Alan Winfield)在2014年的一篇文章中這樣說:“如果我們成功地構(gòu)建與人類相同的AI,如果AI對它如何工作有著充分理解,如果它成功地改善自身成為超智能AI,如果這個超級AI意外或惡意地開始消耗資源,如果我們不能拔插頭斷電,那么,是的,我們可能有問題。這種危險,不是不可能,是不太可能發(fā)生?!?/p>
第二,如果按照時間段來檢查的話,會發(fā)現(xiàn)人工智能的發(fā)展遠低于預(yù)期。正如Google執(zhí)行主席埃里克·施密特(Eric Schmidt)在回應(yīng)馬斯克(Musk)和霍金(Hawking)時所說:“你認(rèn)為人類不會注意到這種情況嗎?你認(rèn)為人類不會關(guān)閉這些電腦嗎?”谷歌自己的DeepMind開發(fā)了一個AI關(guān)閉開關(guān)的概念,被戲稱為“大紅色按鈕“,可以用來接管AI。正如百度副總裁吳安民(Andrew Ng)所說的那樣(回應(yīng)Musk),“這就像是我們甚至還沒有踏上火星,就在擔(dān)心火星上會人口過剩?!?/p>
第三,AI的末日情景通?;谧匀恢悄芎腿斯ぶ悄苤g的錯誤對比。哈佛大學(xué)實驗心理學(xué)家Steven Pinker在對2015年Edge.org年度問題“你對機器思考有什么看法”的回答中闡明:“AI 反烏托邦項目將一個狹隘的阿爾法男性心理學(xué)投射到智力概念上。他們認(rèn)為,超人類的智能機器人將‘放棄他們的主人或接管世界’作為自己的發(fā)展目標(biāo)?!蓖瑯拥?,Pinker說道,“人工智能將沿著雌系自然發(fā)展——能夠完全解決問題,但不會想要消滅無辜或支配文明?!?/p>
第四,暗示計算機將“想要”做某事(例如將世界變成回形針)就等同于AI有情感。正如科學(xué)作家Michael Chorost所言:“AI真的想要做某事時,它將會生活在一個有獎勵和懲罰的宇宙中,這其中就包括來自我們對不良行為的懲罰?!?/p>
鑒于歷史上對世界末日的幾乎為0的預(yù)測率,加上人工智能在幾十年來緩慢發(fā)展,我們有足夠的時間建立故障安全系統(tǒng),防止任何這樣的人工智能所帶來的世界末日。
翻譯來自:蟲洞翻翻 譯者ID:YLS 編輯:郝鵬程
聯(lián)系客服