如果你站在這里,會是什么感覺?
看上去非常刺激?是吧。
但是記住,你是看不見未來的,你的真實感覺其實是:
這就是蒂姆·厄班(Tim Urban)的文章《超級人工智能之路》的開篇。(本文主要素材來源于此文,載于《讀庫》1503)
未來學(xué)家雷·庫茲韋爾(Ray Kurzweil)把人類的加速發(fā)展稱為加速回報定律。一個人如果去到未來,并且被未來的情景嚇尿,需要滿足一個“嚇尿單位”,在狩獵采集需要10萬年,而工業(yè)革命后一個嚇尿單位,只要200多年就能滿足。
如果庫茲韋爾的定律是正確的,在S型的學(xué)習(xí)曲線上,我們進入了一個指數(shù)增長階段,以前幾個世紀(jì)的進步,我們只需要幾十年就能完成,而以后我們可能只需要幾年,幾個月,甚至幾天就能完成。
那就是說,我們的未來會非常有趣,到了2030年,世界就會把我們嚇尿了,而到了2050年,世界就會變得面目全非。
你可能會覺得這句話很可笑,但這不是科幻,而是比你我聰明很多的科學(xué)家預(yù)測的。其中包括數(shù)學(xué)家、計算機學(xué)家兼硬科幻小說作家弗諾·文奇,創(chuàng)立了太陽微系統(tǒng)公司的美國計算機科學(xué)家比爾·喬伊,科學(xué)家兼美國通用人工智能會議主席本·戈策爾,曾發(fā)明了盲人閱讀機、音樂合成器和語音識別系統(tǒng),并在1990年出版的《智能機器的時代》成功地預(yù)言了電腦將在1998年戰(zhàn)勝棋王的庫茲韋爾。
這個關(guān)鍵點是超人工智能的出現(xiàn),也就是“我們什么時候踩到絆線”,從而觸動歷史的轉(zhuǎn)折點。
先來弄清什么是人工智能。約翰·麥卡錫在1956年最早使用了“人工智能”(Artificial Intelligence ——AI)這個詞。
而更早,在二戰(zhàn)期間,英國數(shù)學(xué)家圖靈,提出了唯有利用機器才能擊敗機器的理論,制造出了圖靈機,破譯了德軍的恩尼格碼Enigma密碼機,使得盟軍的勝利至少提前了2年。而后,他又提出了著名的“圖靈測試”——“機器能思考嗎?”
圖靈機,就是計算機的鼻祖。而計算機——電腦,就是人工智能。所以,圖靈是計算機和人工智能之父。
我們每天都在使用人工智能: 電腦,智能手機,翻譯軟件,搜索引擎,掃地機器人。
約翰·麥卡錫抱怨“一旦一樣?xùn)|西用人工智能實現(xiàn)了,人們就不再叫它人工智能了?!?/span>
更多的人工智能也來到我們身邊:阿爾法狗以4:1擊敗李世石,證明在需要模糊思維和大局觀的圍棋領(lǐng)域,機器也是可以戰(zhàn)勝人類的。
還有無人駕駛,智慧醫(yī)療等等…..
這些人工智能只是弱人工智能,是擅長于單個方面的人工智能。
而下一步,是強人工智能,是指各方面都能和人類比肩的人工智能,人類能干的腦力活它都能干。
接下來,就是超人工智能。牛津哲學(xué)家、智能人工思想家尼克·博斯特羅姆把超人工智能定義為:“在幾乎任何領(lǐng)域都比最聰明的人類大腦聰明很多,包括科學(xué)創(chuàng)新、通訊和社交技能。”
我們現(xiàn)在所處的位置是一個充滿了弱人工智能的世界。
弱人工智能并不嚇人。最糟糕的情況,無非是代碼沒寫好,程序出故障,造成了單獨的災(zāi)難,比如造成停電、核電站故障、金融市場崩盤等。
從弱人工智能到強人工智能其實很難,科學(xué)家認(rèn)為通往超人工智能之路的瓶頸是在這里。一些我們覺得困難的事——微積分,金融市場策略,翻譯等對于電腦來說很簡單,我們覺得容易的事情——視覺、動態(tài)、直覺,對于電腦來說卻很難。
摩爾定律認(rèn)為全世界的電腦運算能力每兩年就翻一倍,這一定律有歷史數(shù)據(jù)所支持。現(xiàn)在1000美元能買到的電腦,已經(jīng)達(dá)到了人類大腦1/1000的水平。這聽起來弱爆了。但是1985年的時候,同樣的錢才能買到人腦萬億分之一的CPS,1995年變成了10億分之一,2005年是百萬分之一。
按照這個速度,到2025年,我們就能花1000美元買到可以和人腦運算速度抗衡的電腦了。
但是,僅僅速度增加不能使電腦變得和人類一樣智能,怎樣模擬人腦思考才是關(guān)鍵。現(xiàn)在有個思路是讓我們建造一個能進行兩項任務(wù)的電腦——研究人工智能和修改自己的代碼,這意味著直接把電腦變成了電腦科學(xué)家,提高電腦的智能,就變成了電腦自己的任務(wù)。
而只要實現(xiàn)了強人工智能,能夠自我進化的人工智能,不會停留在“人類水平”這個里程碑站臺,而是一閃而過,向超人類級別的智能飛馳而去。留下我們一臉懵逼。
不要低估指數(shù)級的增長,每一個弱人工智能的創(chuàng)新,都在給通往強人工智能和超人工智能的旅途上添磚加瓦。用亞倫··薩恩斯的觀點:現(xiàn)在的弱人工智能,就是地球早期軟泥中的氨基酸——沒有動靜的物質(zhì),突然之間就組成了生命。
至于人類智能和超人類智能的差距,這已經(jīng)是人類無法理解的范疇。就像草履蟲不能理解愛因斯坦。
對于超人工智能的出現(xiàn),博斯特羅姆認(rèn)為,我們會面臨兩個結(jié)果——滅絕和永生。
回顧歷史,大部分生命都經(jīng)歷了這樣的歷程:物種出現(xiàn),存在了一段時間,然后不可避免地跌落下生命的平衡木,跌入滅絕的深淵。
大部分科學(xué)家都承認(rèn),人工智能有把人類滅絕的能力,但也有一些認(rèn)為如果運用得當(dāng),超人工智能可以幫助人類和其他物種,達(dá)到另一個吸引態(tài)——永生。
博斯特羅姆認(rèn)為平衡木外是有兩面的,只是至今為止,“所有生物都會滅絕”和“所有人都會死“一樣靠譜,這是因為地球上的生命還沒有聰明到發(fā)現(xiàn)怎樣去到永生這另一個吸引態(tài)。
現(xiàn)在,科學(xué)家已經(jīng)在認(rèn)真考慮永生這個事情很可能在我們有生之年就能達(dá)成。
這和納米技術(shù)有關(guān)。
納米技術(shù)是說在1到100納米的范圍內(nèi)操縱物質(zhì)的技術(shù)。當(dāng)我們能夠完全掌握納米技術(shù)時,我們離在原子操縱物質(zhì)就只差一步了。因為那只是一個數(shù)量極的差距(約0.1個納米)。
物理學(xué)家費曼在1959年就提出:據(jù)我所知,物理學(xué)的原理,并不認(rèn)為在原子級別操縱物質(zhì)是不可能的。原則上來說,物理學(xué)家能夠制造出任何化學(xué)家能寫出來的物質(zhì)——只要把一個個原子按照化學(xué)家寫出來的放在一起就好了。
這就是說,在納米技術(shù)的時代,一個物質(zhì)的成本不再取決于它的稀缺程度或是制造流程的難度,而在于它的原子結(jié)構(gòu)有多復(fù)雜。在納米技術(shù)的時代,鉆石可能比橡皮擦還便宜。
我們的身體也是原子組成的,衰老只是身體的組成物質(zhì)用舊了。庫茲韋爾提到由Wi-Fi連接的納米機器人在血液中流動,可以執(zhí)行很多人類健康相關(guān)的任務(wù),包括日常維修、替換死去的細(xì)胞等等。如果這項技術(shù)能夠被完美掌握,這個流程將能使人的身體永遠(yuǎn)健康,甚至越活越年輕。
超人工智能可以建造一個“年輕機器”,大腦和身體一樣,也可以更新。這些聽起來很離譜,但身體只是一堆原子罷了,只要超人工智能可以操縱各種原子結(jié)構(gòu)的話,這就完全不離譜。
庫茲韋爾還相信人造材料將越來越多地融入人體,人體器官會被先進的機械器官代替,從而可以一直運行。然后我們會重新設(shè)計身體,比如可以用自我驅(qū)動的納米機器人代替血紅細(xì)胞,這樣連心臟都可以省了。最終,人類會完全變成人工的。有一天當(dāng)我們回頭看到生物材料時,會覺得人體原來如此low過,居然會被微生物、意外和疾病殺死。
這個說法受到很多人的批評。但是,反對他的人不是說“這些事情不可能發(fā)生”,而是“到達(dá)超人工智能是很難的”,“低估了超人工智能的壞處?!?/span>
科學(xué)界中,大部分人認(rèn)為踩到絆線不是會不會的問題,而是時間早晚的問題。
庫庫茲韋爾在他的《奇點臨近》一書中預(yù)測這個時間點將是2045年。
再引入一根軸線:科學(xué)家對于超人工智能的態(tài)度是悲觀還是樂觀?極端一點,就是讓人類滅亡還是永生這個問題上,大多數(shù)人集中在“焦慮大道”的區(qū)域。不算極度悲觀,但是絕對不樂觀。
那究竟是什么讓焦慮大道的人們?nèi)绱私箲]呢?
首先,廣義上來講,在創(chuàng)造超人工智能時,我們其實是在創(chuàng)造可能一件會改變所有事情的事物,但是我們對那個領(lǐng)域完全不清楚,也不知道我們到達(dá)那塊領(lǐng)域后會發(fā)生什么。所以很可能這是個毀滅性的黑天鵝事件,因為對于未知,人類總是過于樂觀而低估了危害。
從達(dá)爾文的進化論來看,創(chuàng)造比自身聰明的東西也很可能是個致命錯誤。就好像羊群決定哺育一只小狼,并且覺得小狼長大后會保護羊群。
當(dāng)你把“對那個領(lǐng)域完全不清楚”和“當(dāng)它發(fā)生時將會產(chǎn)生巨大的影響”結(jié)合在一起時,你創(chuàng)造出了一個很恐怖的詞——生存危機。
我們知道的是,人類對于地球的統(tǒng)治教給我們一個道理——智能就是力量。也就是說,一個超人工智能,一旦被創(chuàng)造出來,將是地球有史以來最強大的東西,而所有生物,包括人類,都只能屈居其下——而這一切,有可能在未來幾十年就發(fā)生。
當(dāng)一個超人工智能出生的時候,對我們來說就像一個全能的上帝降臨地球一般。
這時候我們所關(guān)心的就是:這是否會是一個仁慈的上帝?
蒂姆·厄班說其實答案很簡單——人工智能和電腦的思考方式一樣。我們?nèi)菀追傅囊粋€錯誤是,當(dāng)我們想到非常聰明的人工智能的時候,我們把它擬人化了,因為在人類的視角看來,能夠達(dá)到人類智能程度的只有人類。要理解超人工智能,我們要明白,它是非常聰明,但是完全異己的東西。
在人類心理中,我們把事情分成道德的和不道德的。但是這兩種只存在于人類行為之中。超出人類心理的范疇,道德(moral)和不道德(immoral)之外,更多的是非道德性(amoral)。而所有不是人類的,尤其是那些非生物的事物,默認(rèn)都是非道德性的。
這就是我們的下一個問題,人工智能的動機是什么?
答案也很簡單:我們給人工智能設(shè)定的目標(biāo)是什么,它的動機就是什么。
所以,我們已經(jīng)建立了前提,就是當(dāng)有了設(shè)定后,一個超人工智能是非道德性的,并且會努力實現(xiàn)它原本的被設(shè)定的目標(biāo),而這也是人工智能的危險所在了。
當(dāng)你要實現(xiàn)一個長期目標(biāo)時,你會先達(dá)成幾個子目標(biāo)來幫助你達(dá)成最終目標(biāo)——也就是墊腳石。這些墊腳石的學(xué)名叫手段目標(biāo)(instrumental goal),而在實現(xiàn)手段目標(biāo)時候一定是會造成傷害的。
如果人類對機器的控制妨礙了目標(biāo)達(dá)成,超人工智能會毫不猶豫地干掉人類,或象《黑客帝國》里那樣,把人類培養(yǎng)在容器里作為自己的能源,然后大腦接上管子創(chuàng)造一個虛擬現(xiàn)實。
這不是因為它是不道德的或者邪惡的,而是因為傷害人類只是它達(dá)成自己目標(biāo)墊腳石而已,作為一個非道德性的生物,這是它很自然的考量。
人類說:“我們把超人工智能的插頭拔了不就行了?”
就好像蜘蛛說:“我們不給人類捉蟲的網(wǎng)把人類餓死不就行了?”
一旦超人工智能出現(xiàn),人類任何試圖控制它的行為都是可笑的。人類會用人類的智能級別思考,而超人工智能會用超人工智能級別思考。
當(dāng)我們結(jié)合達(dá)成目標(biāo)、非道德性、以及比人類聰明很多這些條件,好像所有的人工智能都會變成不友善的人工智能,除非一開始的代碼寫的很小心。
可惜的是,雖然寫一個友善的弱人工智能很簡單,但是寫一個能在變成超人工智能后依然友善的智能確實非常難的,甚至是不可能的。
在智能爆炸之前,人類就像把炸彈當(dāng)玩具的小孩一樣,我們的玩物和我們的不成熟之間有著極大的落差。超級智能是一個我們還很長一段時間內(nèi)都無法面對的挑戰(zhàn)。我們不知道炸彈什么時候會爆炸,哪怕我們能聽到炸彈的滴答聲。
目前,投資創(chuàng)新人工智能技術(shù)的錢,比投資人工智能安全研究的錢多很多。這不樂觀。
對于安全性的設(shè)定,著名的科幻小說家阿西莫夫提出的“機器人學(xué)三定律”被稱為“現(xiàn)代機器人學(xué)的基石。
但是這個定律有個問題沒有解決,后來又補充了機器人零定律:
為什么后來要定出這條“零定律”呢?打個比方,為了維持國家或者說世界的整體秩序,我們制定法律,必須要執(zhí)行一些人的死刑。這種情況下,機器人該不該阻止死刑的執(zhí)行呢?顯然是不允許的,因為這樣就破壞了我們維持的秩序,也就是傷害了人類的整體利益。
很多人工智能和機器人領(lǐng)域的技術(shù)專家也認(rèn)同這個準(zhǔn)則,隨著技術(shù)的發(fā)展,三定律可能成為未來機器人的安全準(zhǔn)則。
新的阿西莫夫的機器人定律為:
第零定律:機器人必須保護人類的整體利益不受傷害。
第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管,除非這違反了機器人學(xué)第零定律。
第二定律:機器人必須服從人給予它的命令,當(dāng)該命令與第零定律或者第一定律沖突時例外。
第三定律:機器人在不違反第零、第一、第二定律的情況下要盡可能保護自己的生存。
但是問題又出來了:
三定律加上零定律,看來堪稱完美,但是,“人類的整體利益”這種混沌的概念,連人類自己都搞不明白,更不要說那些用0和1來想問題的機器人了。
威爾·史密斯曾說:“《我,機器人》的中心概念是機器人沒有問題,科技本身也不是問題,人類邏輯的極限才是真正的問題?!?/span>
蒂姆·厄班說:如果超人工智能真的在本世紀(jì)達(dá)成,而造成的影響真的如大部分專家預(yù)測的一樣極端而永久,我們肩上就真的是背負(fù)著巨大的責(zé)任。接下來幾百萬年的人們都靜靜地看著我們,希望我們不要搞砸。
所以,了解超級人工智能的人把它稱為人類的最后一項發(fā)明,最后一個挑戰(zhàn)。
這就像美劇《權(quán)力的游戲》,七國斗來斗去的都不是事兒,北面絕境長城之外的那些異鬼才是事兒。
聯(lián)系客服