新智元編譯
技術(shù)史是人類不斷被取代的歷史
幾年前,Max Tegmark 站在南肯辛頓科學(xué)博物館門外哭了。他剛剛參觀了一個展示人類知識增長的展覽,觀看了從查爾斯巴貝奇差分機(jī)到阿波羅11號復(fù)制品的一系列展品。讓他流淚的不是這些里程碑技術(shù)的外表奇觀,而是它們所展示的對真相的頓悟。
“我就像被磚塊擊中了一樣。”他回憶說,“每當(dāng)我們深入了解了自然中的某些東西,我們自己身心的某些方面就會變得過時、多余。 一旦我們理解了肌肉如何工作,我們就會以機(jī)器的形式造出更好的肌肉;也許當(dāng)我們理解我們的大腦如何工作時,我們也將造出更好的人造大腦,這樣我們自己的大腦也會變得完全過時。“
Tegmark 進(jìn)一步問自己: 如果我們創(chuàng)造出了超越我們智慧的超級智能,人類將變成什么樣呢?
這個問題曾在科幻作品中一再出現(xiàn)。 然而,隨著AI成為科學(xué)事實(shí),這個問題具有了非同尋常的意義和緊迫性。Tegmark認(rèn)為,我們必須研究圍繞人工智能的社會問題,特別是出現(xiàn)所謂超級智能的可能性。Tegmark 與他的朋友、Skype聯(lián)合創(chuàng)始人Jaan Tallinn,利用來自科技億萬富豪 Elon Musk的資金設(shè)立了未來生命研究所,研究人類面臨的存在風(fēng)險。它位于馬薩諸塞州劍橋。Tegmark本人是麻省理工學(xué)院的教授。
AI是什么,不是什么
Life 3.0:Being Human in the Age of Artificial Intelligence
Tegmark 開始撰寫他的新書,《生命3.0:生活在人工智能時代》(Life 3.0:Being Human in the Age of Artificial Intelligence)。
要看清AI的前景,一個巨大的困難在于,AI的概念已迷失于種種神話和誤解。Tegmark試圖解決這個問題,仔細(xì)地展開 AI 所涉及的與智慧,記憶,學(xué)習(xí),意識相關(guān)的想法,逐一解釋它們,讓這些概念不再神秘。
首先,我們最應(yīng)該明確的是,AI不是什么。
“我認(rèn)為,好萊塢對我們的引導(dǎo)是錯誤的?!彼f。 “這種對機(jī)器人的意識和邪惡的恐懼是杞人憂天。 高級人工智能的真正可怕之處不是邪惡,而是無能。 如果你擁有超級智能的AI,那么根據(jù)設(shè)定,它將非常好地實(shí)現(xiàn)它的目標(biāo);但我們需要確保,這些目標(biāo)與我們的目標(biāo)一致。 我并不仇恨螞蟻,但如果你讓我負(fù)責(zé)在蟻巢上建設(shè)綠色能源水電站,這對螞蟻來說將是毀滅性的。 在面臨超級智能時,我們可不想讓自己處于這些螞蟻的位置?!?/p>
《生命3.0》并不是一部關(guān)于超級AI碾壓人類的哀歌。實(shí)際上,它對超級智能的潛力是樂觀的。不過,什么是超級智能? 甚至,什么是智能? Tegmark把智能定義為“完成復(fù)雜目標(biāo)的能力”。 因此,普通計算機(jī)已具有智能。 但是,它們的智能仍很狹隘。
目前,計算機(jī)在某些領(lǐng)域處理信息時遠(yuǎn)遠(yuǎn)超出人類。 例如,世界上最好國際象棋手已無法戰(zhàn)勝現(xiàn)代計算機(jī)象棋程序。但是,如果讓這個程序與兒童玩最簡單的井字棋游戲,它就會無能為力。人類,即使人類中的孩子,都在廣泛領(lǐng)域中擁有通用智力。而電腦的處理能力只限于規(guī)定的任務(wù)。
所以對普通計算機(jī)來說,它們只會達(dá)到我們通過編程所要求它們達(dá)到的那種聰明程度。 但是,隨著進(jìn)入AI時代,計算機(jī)開始改變了。 在Google的AI子公司DeepMind等地方,電腦已可以通過自學(xué)習(xí) ,進(jìn)行反復(fù)嘗試和進(jìn)步。 到目前為止,這類技術(shù)只在視頻游戲和圍棋中得到體現(xiàn),但將來可能會擴(kuò)展到其他媒體。 如果它擴(kuò)展得足夠遠(yuǎn),將對我們?nèi)绾慰创龑ψ约?、如何看待生活,以及其他根本問題產(chǎn)生深遠(yuǎn)的影響。
生命的三個階段
Tegmark 研究這些問題的方式是,設(shè)想一個具有發(fā)展階段的生命歷程。他把最原始的生命形式,如細(xì)菌,他稱之為Life 1.0。 這是一個最簡單的生命階段,生命只是在不停復(fù)制,而適應(yīng)只有通過自然進(jìn)化才有可能。
生命2.0階段或所謂文化階段是人類所在的地方:人類能夠?qū)W習(xí),適應(yīng)不斷變化的環(huán)境,并能有意地改變這些環(huán)境。然而,我們還不能改變我們的身體自身,不能改變我們的生物遺傳。Tegmark將這種對比比喻成軟件和硬件之間的對比。 我們已經(jīng)能設(shè)計自己的文化軟件,能設(shè)計我們“走路,閱讀,寫作,計算,唱歌和說笑話”的能力;但是我們的生物硬件,包括我們的大腦和身體的特征,仍受到自然進(jìn)化的限制。
第三個階段,即生命 3.0階段,是高科技階段。在這個階段,后期人類不僅可以重新設(shè)計自身的軟件,還可以重新設(shè)計自身的硬件。 Tegmark 寫道,這種形式的生命將是“自己命運(yùn)的主人,最終完全擺脫自然進(jìn)化的束縛”。
這種新的智能將是不朽的,并將在整個宇宙中擴(kuò)散。 這將是一種我們尚不知道的生命形式。 但是,這到底是生命嗎,還是別的什么東西?作為一名物理學(xué)家,Tegmark 可不是關(guān)于生命的感傷主義者。 他是一名唯物主義者,將世界乃至宇宙視為由不同層次的粒子組成,具有不同層次的活動。 在他看來,普通人的生物性智能與自我維持的機(jī)器智能之間沒有任何有意義的、道德上的區(qū)別。
Tegmark描述了Life 3.0的無限可能性的未來。在書中,有時他的寫作是夢幻般的;有時他又會像理論家一樣,試圖構(gòu)想我們大多數(shù)人難以想象、不樂意想象的東西。
簡單來說,我們正處于AI 的早期階段,面臨自駕車、智能家居控制單元等自動機(jī)器。 但是,如果趨勢持續(xù)快速發(fā)展,那么,在30年,50年或200年后的某個時刻, 計算機(jī)將以達(dá)到人類的一樣的通用智能。
一旦電腦達(dá)到這個階段,他們的改善將迅速加快,因?yàn)樗鼈儗⒛軌蛴靡延械奶幚砟芰碛媱澣绾翁岣咦约旱奶幚砟芰Α?這就是 Bostrom 在他2014年的“ 超級智能”一書中所闡述的觀點(diǎn)。這種智能大規(guī)模擴(kuò)張的結(jié)果,將是超級智能或所謂奇點(diǎn)的到來。
然而,超級智能的來臨并不是不可避免的。 有很多人認(rèn)為電腦永遠(yuǎn)不能與人類智能相匹配,有些人認(rèn)為如果電腦朝這個方向發(fā)展,人類本身也會學(xué)會適應(yīng)。 但是,Tegmark認(rèn)為,我們迫切需要認(rèn)真思考超級智能來臨的可能性。
“我們處于這樣的時代:真正戲劇性的大事可能在幾十年內(nèi)發(fā)生。對我來說,這是人類開始為此準(zhǔn)備的最好時候,這樣才能讓超級智能成為一個好的力量。 設(shè)想一下,如果我們30年前就為氣候變化做好準(zhǔn)備,那么氣候的現(xiàn)狀會好得多?!?/p>
AI的發(fā)展比氣候變化問題更為迫切
像Bostrom一樣,Tegmark認(rèn)為AI的發(fā)展比氣候變化問題更為迫切。 然而,如果我們正在創(chuàng)造一種我們不可能理解的智能,我們所做的準(zhǔn)備對未來的超級智能又能有多大的影響呢? 我們?nèi)绾尾拍車L試限制那種超出我們想象的智力?
Tegmark承認(rèn),這是一個沒有人可以回答的問題,但他認(rèn)為還有許多任務(wù)值得我們優(yōu)先考慮。
“在我們擔(dān)心超級智能的長期挑戰(zhàn)之前,我們需要解決一些非常短期的問題。'完美'并不是'好'的敵人,即使做不到完美,我們也能讓現(xiàn)實(shí)變好一點(diǎn)。在任何情況下,我們都不希望飛機(jī)撞進(jìn)高山或建筑物。 當(dāng)事故飛機(jī)飛行員 Andreas Lubitz 感到抑郁崩潰時,他告訴他的自動駕駛儀,讓它下降100米,飛機(jī)的電腦系統(tǒng)居然執(zhí)行了!然后就帶來了災(zāi)難。這說明,這個電腦對于人類的目標(biāo)是完全無知的。盡管我們現(xiàn)在已經(jīng)擁有飛機(jī)安全駕駛技術(shù),在這種技術(shù)下只要飛行員試圖撞擊什么東西,飛機(jī)就會進(jìn)入安全模式,將著陸目標(biāo)鎖定在最近的機(jī)場。但這樣的技術(shù)在這起災(zāi)難中完全無用。我們應(yīng)該著手,讓機(jī)器能夠理解這種幼兒園級的基本道德規(guī)范。“
不過,在此之前,還有更緊迫的工作要做。 “我們?nèi)绾尾拍軐⒔裉斓娜菀壮鲥e、可攻破的計算機(jī)轉(zhuǎn)變成我們可以真正信任的強(qiáng)大AI系統(tǒng)? 這是非常重要的。 我覺得我們作為一個社會對這個問題太輕率了。世界各國政府應(yīng)該將這個領(lǐng)域作為計算機(jī)科學(xué)研究的重要組成部分。“
他認(rèn)為,通過放棄人工智能研究來防止超級智慧興起,這并不是一個可靠的方法。 “人類在2017年的生活的每一個方面都比石器時代更好,這都是因?yàn)榧夹g(shù)。技術(shù)正在發(fā)生,沒有人會停止技術(shù)發(fā)展。如果有人問你是不是反對AI,這就像詢問你,是不是反對火這個東西,這很可笑。我們都喜歡火,它讓我們的家庭保持溫暖,但我們也都想防止火災(zāi)?!?/p>
在這本書中,Tegmark認(rèn)為,Google的 Larry Page可能成為有史以來最有影響力的人物:“我的猜測是,如果超級智能在我的有生之年就誕生并吞噬天地,這一切將起源于 Larry Page 所做出的決策?!?/p>
Larry Page 像 Musk一樣,富有思想,真誠關(guān)心人類的未來困境。但毫無疑問,他首先是一個商人,最關(guān)心的是利潤和打敗競爭對手。而事實(shí)證明,目前關(guān)于AI的決策權(quán)力仍過多地掌握在科技億萬富豪,而這些人并不能代表人類的利益。
關(guān)于近期的AI政策,Tegmark的建議是:第一,資助關(guān)于AI安全的研究,第二,禁止致命性的智能自主性武器,第三,擴(kuò)大AI的社會服務(wù),讓AI創(chuàng)造的財富能使每個人都得到好處。”
如前所述,今天的行動將極大影響未來的AI道路。但是,采取這三點(diǎn)計劃,似乎能讓未來變得不那么讓人擔(dān)憂。
原文:https://www.theguardian.com/technology/2017/sep/16/ai-will-superintelligent-computers-replace-us-robots-max-tegmark-life-3-0
點(diǎn)擊閱讀原文可查看職位詳情,期待你的加入~
聯(lián)系客服