圖片來源:Pixabay (AI 生成內(nèi)容)
作者 Tamlyn Hunt (美國公共政策律師,加利福尼亞大學(xué)生芭芭拉分校研究者)
翻譯 阿金
編輯 魏瀟
*此文僅代表作者個(gè)人意見
“大家說這玩意兒可能會(huì)比人更聰明,我以前認(rèn)為這目標(biāo)還遠(yuǎn)著呢……現(xiàn)在顯然不再這么想了?!惫雀桧敿獾娜斯ぶ悄芸茖W(xué)家,著名的“人工智能教父” Geoffrey Hinton 在今年四月離職谷歌后終于說出了自己的想法,并警告這一技術(shù)的危險(xiǎn)性。
他不是唯一為此擔(dān)憂的人。2023 年的一項(xiàng)人工智能專家調(diào)查結(jié)果發(fā)現(xiàn),36% 的調(diào)查對(duì)象擔(dān)憂人工智能的發(fā)展可能引發(fā)“核武器級(jí)別的災(zāi)難”。將近 2.8 萬人簽署了來自未來生命研究所(Future of Life Institute)的公開信,簽名人包括 Steve Wozniak、Elon Musk,以及不少人工智能企業(yè)的 CEO 們,還有許多其他杰出的技術(shù)專家,他們共提供呼吁暫停 6 個(gè)月或中止最新人工智能的研發(fā)。
作為意識(shí)領(lǐng)域的研究人員,對(duì)于人工智能的快速發(fā)展,我也同樣懷抱強(qiáng)烈的擔(dān)憂,因此也是這封公開信的聯(lián)合簽署人之一。
編者注:該文章發(fā)表后不久,非營利組織“人工智能安全中心”(Center for AI Safety)于 5 月 30 日在其官網(wǎng)發(fā)布聯(lián)名公開信,對(duì)人工智能給人類構(gòu)成的生存威脅發(fā)出警告。目前已有超過 350 名人工智能行業(yè)的高管、研究人員和工程師簽署了這封公開信,Geoffrey Hinton、Yoshua Bengio、Sam Altman 均在其中。
為什么我們都如此擔(dān)心呢?一句話:人工智能發(fā)展得太快了。
關(guān)鍵問題在于,最新型的高級(jí)“聊天機(jī)器人”(chatbots)或者技術(shù)上稱為“大型語言模型”(LLMs)在對(duì)話方面取得了深刻、快速的進(jìn)展。伴隨著即將到來的“人工智能大暴發(fā)”,我們可能將只有一次機(jī)會(huì)走上正確的道路。
如果走錯(cuò)一步,人類可能萬劫不復(fù),這絕非夸大其詞。
隨著進(jìn)展快速積累,“通用人工智能”(AGI)有可能很快出現(xiàn),屆時(shí)人工智能將有能力自行發(fā)展,無需人工干預(yù)。例如谷歌的 AlphaZero 人工智能,在首次啟動(dòng)后僅 9 個(gè)小時(shí)內(nèi)就學(xué)會(huì)了下圍棋,并且戰(zhàn)勝了人類頂級(jí)棋手或者其他人工智能玩家。它通過自己和自己對(duì)弈上百萬次就完成了這一壯舉。
我認(rèn)為 OpenAI 的 GPT-4 是現(xiàn)有的頂尖聊天機(jī)器人中最優(yōu)秀的一個(gè),一支分析了 GPT-4 的微軟研究團(tuán)隊(duì)在最新的預(yù)印本論文中表示其已迸發(fā)出“高級(jí)人工智能的火花”。
測試 GPT-4 的時(shí)候,它在美國許多州施行的律師資格統(tǒng)一考試(Uniform Bar Exam)中的表現(xiàn)超過了90% 的人類考生,遠(yuǎn)超前一版本 GPT-3.5 取得的結(jié)果(超過了 10% 的考生),不過 GPT-3.5 的數(shù)據(jù)集訓(xùn)練規(guī)模更小一些。他們還發(fā)現(xiàn),在十幾個(gè)其他標(biāo)準(zhǔn)化測試中 GPT-4 也取得了相同程度的進(jìn)步。
大部分這類測試都是推理能力測試,正因如此,Bubeck 團(tuán)隊(duì)才會(huì)得出結(jié)論說 GPT-4 “可以被合理視作 AGI 系統(tǒng)的早期(但仍不完全)版本?!?/span>
這種變化速度也是 Hinton 跟《紐約時(shí)報(bào)》這么說的原因:“看看五年前以及現(xiàn)在的情況。差異明顯,而且還在進(jìn)一步擴(kuò)大。太可怕了?!蔽逶轮醒诿绹鴩鴷?huì)就人工智能發(fā)展?jié)摿Φ穆犠C會(huì)上,OpenAI 首席執(zhí)行官 Sam Altman 呼吁監(jiān)管“至關(guān)重要”。
人工智能的自主發(fā)展可能不超幾年就能實(shí)現(xiàn),或者現(xiàn)在就可能已經(jīng)存在。這會(huì)令我們無法知曉人工智能會(huì)做出什么事情,我們也不知道該如何控制它們。因?yàn)槌?jí)智能 AI(被定義為能夠廣泛超過人類表現(xiàn))能繞過程序員或任何其他人,操縱人類按其意志行事。它還有能力一邊通過電路連接在虛擬世界內(nèi)大行其道,一邊通過機(jī)器人軀體在物理世界為所欲為,這恰恰是我最擔(dān)心的。
這也就是著名的“控制問題”或者“對(duì)齊問題”(alignment problem)[詳見哲學(xué)家Nick Bostrom《超級(jí)智能》(Superintelligence)一書,里面作了詳細(xì)概述],幾十年來,包括 Bostrom,Seth Baum 和 Eliezer Yudkowsky 等哲學(xué)家和科學(xué)家一直在研究這個(gè)問題,爭論非常激烈。
我的思路是這樣的:我們?yōu)槭裁匆诖龂褰绲男律鷥耗艽驍〈髱熂?jí)棋手?我們不該這么期待。同樣地,我們?yōu)槭裁匆诖軌蚩刂瞥?jí)智能 AI?(不,我們無法簡單地按個(gè)開關(guān)就把它關(guān)掉,因?yàn)槌?jí)智能 AI 已經(jīng)設(shè)想到了我們會(huì)采取的所有可能行動(dòng),從而早先一步下手防止自己被關(guān)機(jī)。)
還有另外一條思路:超級(jí)智能AI能夠在一秒內(nèi)完成一支 100 名人類軟件工程師在一年或更久時(shí)間內(nèi)完成的操作。或者我們選擇其他任務(wù),例如設(shè)計(jì)新型飛機(jī)或武器系統(tǒng),超級(jí)智能AI 可能只花一秒就設(shè)計(jì)出來了。
一旦人工智能系統(tǒng)被植入到機(jī)器人內(nèi)部,它們就能在真實(shí)世界中行動(dòng),而不僅限于虛擬(電子)世界,這些機(jī)器人具備相同程度的超級(jí)智能,當(dāng)然能夠以超越人類的速度復(fù)制并更新自身。
在超級(jí)智能 AI 成神的道路上,我們植入其中的任何防御或保護(hù)措施都會(huì)被它們預(yù)判并輕松化解。這就是超級(jí)智能的意義。
我們將無法控制它們,因?yàn)槲覀兡芟氲降囊磺惺侄危鼈冊(cè)缫讯枷氲搅?,速度比我們快一百萬倍。我們構(gòu)建的任何防御都于事無補(bǔ),就好像格列佛(Gulliver,《格列佛游記》的主人公)輕松甩掉小人國的小人們用來束縛他的細(xì)小繩索一樣。
還有人爭辯說這些大語言模型只是自動(dòng)機(jī)器,不具備任何意識(shí),他們的意思是如果語言模型沒有意識(shí),它們就不太能夠沖破程序限制獲得自由。無論現(xiàn)在還是未來,即便不是所有的語言模型都會(huì)有意識(shí),這都無關(guān)緊要。作為澄清,我認(rèn)同在當(dāng)下它們不太可能具備任何真實(shí)的意識(shí),但我仍保留開放態(tài)度,因?yàn)槲磥砜赡軙?huì)出現(xiàn)新的情況。
無論如何,核彈沒有意識(shí),但仍能屠殺數(shù)百萬民眾。同樣地,毫無意識(shí)的人工智能也能如此,通過多種方式,包括直接(也許不太可能)或操縱人類中間人(可能性更大)來引爆核彈。
所以,關(guān)于意識(shí)與人工智能問題的討論并不能在很大程度上取代人工智能安全性問題的討論。
確實(shí),基于 GPT-4 的語言模型以及許多其他模型早已廣泛傳播。但我們呼吁中止研發(fā)任何比 GPT-4 更強(qiáng)大的新模型,如有必要,甚至可以采取強(qiáng)制手段。訓(xùn)練這些更強(qiáng)大的模型需要大規(guī)模的服務(wù)器“農(nóng)場”和能源,我們可以關(guān)停這些設(shè)備。
我的道德告訴我,在明知無法控制人工智能系統(tǒng)的情況下繼續(xù)創(chuàng)造新系統(tǒng),這一做法非常不明智,即便在不久的將來也是如此。遠(yuǎn)見讓我們知道何時(shí)從危險(xiǎn)的邊緣撤回,現(xiàn)在正是時(shí)候。
潘多拉魔盒早已打開,但我們不應(yīng)該繼續(xù)下去了。
聯(lián)系客服