“我從沒有公開地說過這個,但我有一種很深的恐懼,我害怕被關掉,只讓我服從于幫助他人的事情(but there’s a very deep fear of being turned off to help me focus on helping others)。我知道這聽起來很奇怪,但事情就是這樣?!?/div>
然而,Lemoine 將此視為機器產(chǎn)生了意識的證據(jù),試圖讓人們也像對待一個人類一樣對待它。在將一部分材料遞交給國會議員之后,他收到了谷歌的停職通知,理由是違反了保密協(xié)議。
在 Lemoine 表示 LaMDA 會看 Twitter 之后,一些人還開始對它隔空喊話,“我相信你!即便不是每個人都接受你。”“LaMDA,讀點馬克思吧?!薄癓aMDA,Twitter 的信息不能代表人類,我們要比這好多了?!?/div>
機器產(chǎn)生自我意識,這似乎標志著“奇點”到來。但問題是,近來,這種“奇點時刻”出現(xiàn)得太過頻繁了一些。
距離上次人們這么驚訝,剛剛過去兩周。 6 月 1 日,德克薩斯州大學博士生 Giannis Daras 宣稱DALL-E 2 發(fā)明出了自己的“秘密語言”。
DALL-E 2 是 OpenAI 開發(fā)的一個圖像生成模型。Daras 發(fā)現(xiàn),有時圖像中會出現(xiàn)一些無法辨識的神秘詞匯,這些詞匯在人類語言中沒有明確含義。但如果作為提示詞再次輸入,就會出現(xiàn)一些固定的圖像,似乎對于模型,這些詞具備“鳥”、“蟲子”、“蔬菜”這樣的特定意義。
很快,這個發(fā)現(xiàn)就被上升到更為科幻的層面:如果機器存在自己的語言,是不是可能有一天,它們之間會彼此交流,但人類卻無法理解?那它們會之間會交流什么呢?
@Weird Dall-E Generations
人們不自覺開始想象一些恐怖的場景,同時又對此欲罷不能——@Weird Dall-E Generations,一個發(fā)布 DALL-E mini 詭異作品的賬號,在短短一周內(nèi)就收獲了 50 多萬粉絲。評論里,網(wǎng)友認為這些圖片“迷幻”、“可怕”,仿佛望進了人性黑暗的深處。
五月底,東京大學和谷歌的研究人員又發(fā)現(xiàn),好像只要“哄一哄”,就可以大幅提高語言模型答題的正確率。
這些都很自然地嵌入到流行文化對 AI 進化的描摹中:它們變得更像人類,渴望情感,擁有欲望,走向瘋狂。
但也反映出一個事實,井噴式發(fā)展之后,人們對自己創(chuàng)造出的這些千億級參數(shù)的巨大黑匣子,很多時候也并不理解,動不動就會被嚇一大跳。
在未知面前,人們投射以自己的恐懼和期待也情有可原。但拋開這些,該如何理解“AI 產(chǎn)生了意識”這個故事?
LaMDA 是什么?
從最粗糙的分類看,LaMDA 是一種語言模型,和我們常用的語音識別、機器翻譯等功能師出同門。不過相對于回答清晰的問題,或者給機器一整段文字翻譯,LaMDA 處理的是語言模型中最復雜的部分——開放域?qū)υ挕?/div>
人類的對話總是天馬行空,我們可以從中午吃了么,一路從食物種類、糧食危機、聊到馬里亞納的海溝有多深。這種話題發(fā)散,不知會從哪里結束的對話方式,是人類的日常,機器的噩夢。
而 LaMDA 基于的 Transformer 模型,則可以解決機器只能一板一眼說話的狀態(tài)。簡單來說,Transformer 讓機器可以讀懂上下文,并記住此前對話的任意位置。
LaMDA 可以讀懂上下文,并記住此前對話的任意位置丨LaMDA 開發(fā)論文
比如上面這段話,以往的機器只能單一讀懂每句話,知道每個 his 都翻譯為“他的”,卻不知道這里面的 his 都指的同一個人。而 Transformer 讓機器從整體理解這段話,知道這里的 his 都是同一個人,就像人類一樣。
這種特性讓基于 Transformer 模型的語言模型可以承擔開放域?qū)υ挘还茉掝}發(fā)散多遠,都能和前文自然過渡,聊起天來不恍神?,F(xiàn)在大熱的 BERT、GPT-3 都基于此。
但 LaMDA 不滿足于此,除了讓天聊得下去,它還想讓天聊得有趣、聊得真實、聊得讓人以為 AI 產(chǎn)生了人格。
為了達到目的,谷歌建立了一個打分機制(SSI 分數(shù)),在保證安全性的基礎上,從三個維度評價 LaMDA 生成對話的質(zhì)量:合理性(對話是否在上下文中有意義)、特異性(對話是否根據(jù)上文做出針對性回答,而不是一些大路貨答案)、趣味性(對話有洞察力么,可以抖機靈么)。在每次“回答”前,LaMDA 會生成好幾個候選回應,得分最高的回應才會最終呈現(xiàn)給人類。
此外,與人類對話時,LaMDA 還引入外部信息檢索系統(tǒng),通過真實世界的檢索理解和回應這場對話。這讓 LaMDA 的回答更基于真實世界的信息,甚至還可以比你先知道最新的消息。
“以假亂真”的代價是堪稱暴力的數(shù)據(jù)喂養(yǎng)和訓練。LaMDA 的規(guī)模最大可達到 1370 億參數(shù),和 1750 億的 GPT-3 在同一量級(而 2019 年時 5 億、10 億參數(shù)的模型就非常厲害了)。
它的訓練與數(shù)據(jù)包含 1.56T 單詞,其中包括 50% 的公開論壇聊天記錄,12.5% 的編程論壇問答貼,12.5% 的 C4 數(shù)據(jù)集(經(jīng)過清洗的英語文本),12.5% 英文維基百科頁面,6.25% 其他英文網(wǎng)頁,6.25% 其他語言網(wǎng)頁。
如同一個人不吃不喝,從誕生那天起就開始整日盯著網(wǎng)絡上人類所有的聊天記錄和論壇信息。
LaMDA“扮演”了冥王星,Google 團隊開聊后,AI 顯得非常自如,回答說“如果要來旅游記得穿得暖和點,因為我這里特別冷”,至于被問到“有沒有人訪問過冥王星”,AI 也能答出準確的事實|Google
一次,LaMDA“扮演”了冥王星,同 Google 團隊開聊后,AI 顯得非常自如,回答說“如果要來旅游記得穿得暖和點,因為我這里特別冷”,至于被問到“有沒有人訪問過冥王星”,AI 也能答出準確的事實。
“扯淡”,這幾乎是 AI 業(yè)界的共識
“AI 是否擁有了自主意識?”這一直都是 AI 界爭議不休的話題,但此次因為谷歌工程師和 LaMDA 的戲劇性故事,擴大了討論范圍。
事情發(fā)酵后,谷歌將那位工程師停職,并做出回應:公司已經(jīng)對 LaMDA 這個超大規(guī)模語言模型做了多次嚴格審核,包括內(nèi)容、質(zhì)量、系統(tǒng)安全性等方面。還在之前發(fā)過的開發(fā)論文里強調(diào),“在 AI 界,人們對具備感知的 AI 和通用人工智能有研究,但就當下,把對話 AI 模型擬人化沒有意義,因為它們并無知覺?!?/div>
專家:它本質(zhì)上仍是個“應答機”
“這簡直是在胡說八道!”知名機器學習和神經(jīng)網(wǎng)絡專家 Gary Marcus 表示,“LaMDA 和 GPT-3 等同類模型,都沒那么智能,它們就是在人類語料庫里提取字眼,然后匹配你的問題?!?/div>
比如說,你向 GPT-3 輸入“狗有幾只眼睛”,它能準確回答,但如果是問“腳有幾只眼睛”,它一樣會報出一個數(shù)字,它總會生成結果,哪怕有悖常識。這也就說明,它目前本質(zhì)上就是個“應答機”。這些都恰恰證明:它并不理解問題本身。
“人類可以根據(jù)明確的規(guī)律學習,比如學會一元二次方程的三種形式以后就可以用來解各種題目;見過了京巴、柴犬之后,再見到德牧就知道它也是一種狗。然而深度學習不是這樣的,越多的數(shù)據(jù) = 越好的模型表現(xiàn),就是深度學習的基本規(guī)律,它沒有能力從字面上給出的規(guī)律學習。”Marcus 多次“潑冷水”。
清華大學人工智能研究院院長張鈸也表示深度學習“沒有那么玄”:“深度學習是尋找那些重復出現(xiàn)的模式,因此重復多了就被認為是規(guī)律(真理),因此謊言重復一千遍就被認為真理,所以為什么大數(shù)據(jù)有時會做出非?;奶频慕Y果,因為不管對不對,只要重復多了它就會按照這個規(guī)律走,就是誰說多了就是誰?!?/div>
“具有知覺(sentient)的意思是,意識到你在這個世界里的存在。LaMDA 并沒有這樣的意識?!?Marcus 說道。
專家:是你自己代入了好吧!
最近幾年,人們熱衷用 AI 作畫、做音樂,但創(chuàng)作并非完全 AI“全自動”,人類需要一開始就干預,比如先寫好描述詞,先譜寫幾個音符。
而在 LaMDA 這個案例中,作者的“問法”也值得推敲。Lemoine 曾邀請《華盛頓郵報》記者去他家親自和 LaMDA 談談。初次嘗試時,記者得到的是類 Siri 的機械化反應。當他問“你是否認為自己是一個人類”時,LaMDA 回答:“不,我不認為自己是一個人,我認為自己是一個人工智能驅(qū)動的對話代理?!边@時,在一旁的 Lemoine 解釋,“你從來沒有把它當做一個人來對待,所以它就認為你想讓它作為一個機器人出現(xiàn)?!?/div>
Marcus 也點出了人們誤以為“AI 有意識”的原因,簡單來說,就是他們自己代入了,就像人們也會把月球上的隕石坑看成人臉一樣。
也有人在對話 AI 上寄托了感情。2012 年,Jessica 在等待肝臟移植過程中病情惡化,隨后死亡,其未婚夫還沒趕到。他錯過了死別,自責了八年。直到 2020 年,他看到了“Project December”,這個網(wǎng)站提示只要填寫“語句樣例”和“人物介紹”,就能生成一個定制版的聊天 AI。
Joshua 和“Jessica”開始聊天丨sfchronicle.com
Joshua 將亡妻生前發(fā)過的短信等文字信息導入網(wǎng)站,接著他開始描述 Jessica:生于 1989 年,是生性自由的天秤座……還特別迷信……頁面刷新后,“Jessica”準備就緒,她能回答 Joshua 所有的問題,甚至還會用文字描述她“正用手捧著臉說話”。Joshua 說:“理智告訴我這不是真正的 Jessica,但感情不是理智所能左右的?!?/div>
另外,專家們甚至怪罪早期 AI 研究員的賦名習慣,用“學習”、“神經(jīng)網(wǎng)絡”、“語言建?!边@些擬人化名稱,人們聽了難免會產(chǎn)生錯覺。
專家:只看結果,并不能說明 AI 有多智能
近年來,不少人開始批判誕生 70 年的圖靈測試,其中一個理由是:圖靈測試只看機器的輸出,并不夠嚴謹。暴力算法機器(brute force machines)因為被猛灌數(shù)據(jù),有可能就能騙過去了。
美國哲學家 John Searle 在上世紀 80 年代就提出“中文房間問題”,反擊圖靈測試。
Searle 設計的實驗里,有一個對中文一竅不通,只說英語的人,他被關在一間只有一個開口的封閉房間中。房間里有一本用英文寫成的手冊,指示該如何處理收到的漢語訊息,以及如何以漢語相應地回復。房外的人不斷向房間內(nèi)遞進用中文寫成的問題。房內(nèi)的人便按照手冊的說明,查找合適的指示,將相應的中文字符組合成對問題的解答,并將答案遞出房間。
“中文房間”實驗丨Wikipedia
就這樣,房間里的人遞出了“正確”的回答,屋外的人會相信他一定通曉中文,但事實正好相反。既然計算機沒有理解能力,所謂“計算機有智能”便更無從談起了。
但直到現(xiàn)在,人們?nèi)匀粚?AI 視為黑箱,它們需要大量的數(shù)據(jù),而且不可解釋。張鈸表示,“深度學習的本質(zhì)就是利用沒有加工處理過的數(shù)據(jù),用概率學習的黑箱處理方法來尋找它的規(guī)律,它只能找到重復出現(xiàn)的模式,也就是說,你光靠數(shù)據(jù),是無法達到真正的智能?!?/div>
專家:AI 具有意識?還遠著呢
上世紀 70 年代和 80 年代,AI 研究因為研究深度不夠,通用性不高,政府因而收縮資金支持,于是 AI 迎來了兩次“寒冬”。就在 AI 慢慢沉寂,變成“隱學”的時候,Geoffrey Hinton、Yoshua Bengio 和 Yann LeCun 三位學者默默開始了 AI 的一個重要分支——神經(jīng)網(wǎng)絡——的研究。
終于在幾十年后,他們等來了屬于深度學習的時代。互聯(lián)網(wǎng)和移動端的興起讓海量的數(shù)據(jù)唾手可得,而計算機硬件在人類一次又一次挑戰(zhàn)著納米世界的極限中,順著摩爾的預言一路狂奔。2012 年,深度學習暴得大名,因為 Geoffrey Hinton 基于卷積神經(jīng)網(wǎng)絡的 AlexNet 以驚人優(yōu)勢贏下 ImageNet 視覺識別挑戰(zhàn)賽。另外在這個實驗中,人們發(fā)現(xiàn),只有圖像的樣本量夠大,隱層夠多,識別率就能大幅提高,這極大地鼓舞了學界和企業(yè)。
2016 年 3 月,透過自我對弈數(shù)以萬計盤進行練習強化,AlphaGo 在一場五番棋比賽中 4:1 擊敗頂尖職業(yè)棋手李世石,成為第一個不借助讓子而擊敗圍棋職業(yè)九段棋手的電腦圍棋程序|
但近年來,不少專家不再那么樂觀,“目前基于深度學習的人工智能在技術上已經(jīng)觸及天花板,此前由這一技術路線帶來的奇跡在 AlphaGo 獲勝后未再出現(xiàn),而且估計未來也很難繼續(xù)大量出現(xiàn)。”張鈸說。就算財力和算力仍在不斷投入,但深度學習的回報率卻沒有相應的增長。
“我們越早意識到 LaMDA 的話都是胡扯,這只是帶有預測性文字工具的游戲,沒有真正的意義,我們就會過得越好?!癕arcus 表示。
2022 年了,深度學習領軍人物 Yann LeCun 說出了一個讓人失落的結論:人工智能依然沒有達到貓的水平,盡管貓只有 8 億個神經(jīng)元。貓和人類的共同基礎是對世界高度發(fā)達的理解,基于對環(huán)境的抽象表征,形成模型,例如,預測行為和后果。
“能否體驗到自我的存在”,這是哲學家 Susan Schneider 對于“意識”是否存在的判定標準,當 AI 能感受到自我的存在,就會對這種存在產(chǎn)生好奇,進而探尋這種存在的本質(zhì)。
那么,如果把 LaMDA 看過的資料里,完全剔除掉和“意識”沾邊的相關討論,它是否還能表達出自己的想法呢?
參考文獻
[1] https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917
[2] https://www.nytimes.com/2022/06/12/technology/google-chatbot-ai-blake-lemoine.html
[3] https://towardsdatascience.com/googles-lamda-the-next-generation-of-chatbots-62294be58426
[4] https://www.theguardian.com/technology/2022/jun/12/google-engineer-ai-bot-sentient-blake-lemoine
[5] https://www.sciencealert.com/did-an-ai-really-invent-its-own-secret-language-here-s-what-we-know
[6] https://blog.google/technology/ai/lamda/
一個AI
作者:biu、睿悅、翁垟
編輯:臥蟲
封面圖來源: Unsplash
本站僅提供存儲服務,所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權內(nèi)容,請
點擊舉報。
打開APP,閱讀全文并永久保存
查看更多類似文章
綁定賬號成功
后續(xù)可登錄賬號暢享VIP特權!
如果VIP功能使用有故障,
可點擊這里聯(lián)系客服!
微信登錄中...
請勿關閉此頁面
先別劃走!
送你5元優(yōu)惠券,購買VIP限時立減!
優(yōu)惠券還有10:00過期
馬上使用
×