編者按:本文來(lái)自微信公眾號(hào)“果殼”(ID:Guokr42),作者:棉豬,編輯:odette,36氪經(jīng)授權(quán)發(fā)布。
9月8日,英國(guó)《衛(wèi)報(bào)》刊登了一篇獨(dú)特的專欄文章,它的作者既不是熱心讀者,也不是記者,而是GPT-3,由舊金山一家人工智能創(chuàng)業(yè)企業(yè)OpenAI開發(fā)的AI語(yǔ)言模型。在文章一開頭,它首先引用了史蒂芬·霍金對(duì)AI的隱憂,然后禮貌地勸說(shuō)人類“請(qǐng)相信我,AI不會(huì)毀滅人類”,它甚至保證“如果創(chuàng)造我的人將這項(xiàng)任務(wù)委托給我,我將竭盡所能全面阻止任何破壞的嘗試與企圖”。
霍金的擔(dān)心也許并非空穴來(lái)風(fēng)。2018年,IBM Research最新推出的AI系統(tǒng)Project Debater在一場(chǎng)辯論賽中擊敗了人類頂尖辯手,以色列國(guó)際辯論協(xié)會(huì)主席丹·扎夫里(Dan Zafrir)和2016年以色列國(guó)家辯論冠軍諾亞·奧瓦迪亞(Noa Ovadia),兩個(gè)辯題分別為“政府是否應(yīng)該資助太空探索”以及“是否應(yīng)該增強(qiáng)對(duì)遠(yuǎn)程醫(yī)療技術(shù)的投資”。
當(dāng)Project Debater獲得一個(gè)新的話題時(shí),它會(huì)在文章語(yǔ)料庫(kù)中搜索與該主題相關(guān)的句子和線索,用來(lái)支持其辯方論點(diǎn)。根據(jù)所有的相關(guān)內(nèi)容,它會(huì)試圖去“理解”辯論的主題,然后組織自己的陳述。當(dāng)奧瓦迪亞提出,政府預(yù)算應(yīng)用于人類改善現(xiàn)有生存環(huán)境的科研活動(dòng)時(shí),Project Debater則用數(shù)據(jù)反駁稱,從遠(yuǎn)期看,太空探索帶來(lái)的技術(shù)進(jìn)步,和相關(guān)經(jīng)濟(jì)收益回報(bào),要超過(guò)政府投資的其他科研計(jì)劃——在賽后的網(wǎng)絡(luò)投票中,超過(guò)62%的網(wǎng)民感覺Project Debater邏輯更清晰,材料更具備說(shuō)服力。
而就在辯論賽舉辦的前一年,2017年,紐約大學(xué)的計(jì)算語(yǔ)言學(xué)家薩姆·鮑曼(Sam Bowman)還發(fā)表了一篇富于影響力的論文,他聲稱雖然在某些非常特定的領(lǐng)域中,計(jì)算機(jī)已經(jīng)可以很好地模擬對(duì)文字的理解,但人工智能仍然不夠擅長(zhǎng)理解文字。
近年來(lái)持續(xù)關(guān)注人工智能語(yǔ)音技術(shù)的《連線》雜志作家詹姆斯·弗拉霍斯(James Vlahos)說(shuō),人工智能語(yǔ)音技術(shù),可能是繼互聯(lián)網(wǎng)后最重要的發(fā)明,在他的最新著作《跟我講話:人工智能語(yǔ)音技術(shù)如何改變我們的生活》中,弗拉霍斯說(shuō),語(yǔ)言,是人類與人工智能交互的最理想模式,無(wú)論是復(fù)雜的計(jì)算機(jī)編程語(yǔ)言,還是觸摸屏與鼠標(biāo),都比不上利用語(yǔ)音進(jìn)行人機(jī)交互。對(duì)于我們來(lái)說(shuō),語(yǔ)音交互是最簡(jiǎn)潔、清晰、沒有技能門檻的模式。
物聯(lián)網(wǎng)加語(yǔ)音交互加智能設(shè)備,共同構(gòu)建了未來(lái)人類生活的日常場(chǎng)景 | www.iamwire.com
在現(xiàn)實(shí)生活中,人類已經(jīng)越來(lái)越習(xí)慣用語(yǔ)言指揮人工智能為自身服務(wù):通過(guò)向智能家居設(shè)備下達(dá)語(yǔ)音指令,獲取影音娛樂,天氣資訊和交通狀況;上班通勤途中,我們通過(guò)車載語(yǔ)音助手規(guī)劃行車路線,在網(wǎng)購(gòu)剁手中直接和人工智能語(yǔ)音客服溝通:去年雙11,淘寶天貓平臺(tái)98%以上的電話客服由語(yǔ)音AI提供,日均達(dá)到6億余次。知名咨詢公司高德納曾在去年作出預(yù)計(jì),10年后,人類每天與智能設(shè)備進(jìn)行的語(yǔ)言交流總量可能將占據(jù)我們?nèi)粘UZ(yǔ)言交流的三分之一強(qiáng)。
不過(guò),我們已經(jīng)遠(yuǎn)遠(yuǎn)不滿足于這種簡(jiǎn)單的淺層交流?!白寵C(jī)器聽懂人類以自身語(yǔ)言習(xí)慣發(fā)出的指令”,無(wú)疑是人工智能研究界意圖攻克的“最后堡壘”。而這個(gè)技術(shù)突破的“奇點(diǎn)”似乎近在眼前。
2017年,華盛頓大學(xué)及谷歌旗下人工智能公司DeepMind合作,推出一項(xiàng)名為“GLUE”的閱讀理解語(yǔ)言能力測(cè)試,機(jī)器的測(cè)試成績(jī)慘不忍睹,似乎人工智能主導(dǎo)的自然語(yǔ)言處理系統(tǒng)完全無(wú)法理解人類語(yǔ)言的豐富性。然而就在當(dāng)年10月,谷歌推出了一種新語(yǔ)言訓(xùn)練模型,綽號(hào)為BERT,僅用六個(gè)月的時(shí)間就把測(cè)試成績(jī)從D-提升到了B-。
隨后,微軟和阿里巴巴不斷地修正BERT模型、相互超越,在GLUE排行榜上輪換頭名?,F(xiàn)在,在GLUE閱讀能力測(cè)試中,人類已經(jīng)無(wú)法與AI抗衡。到了這個(gè)階段,研發(fā)人工智能語(yǔ)言模型極為燒錢,訓(xùn)練一個(gè)BERT模型租用云算力的費(fèi)用大概是7000美元,而開頭提到的GPT-3所需要的算力是前者的1900多倍,它所依托的數(shù)據(jù)庫(kù),是一個(gè)單詞總數(shù)達(dá)到3000億,來(lái)自互聯(lián)網(wǎng)各類平臺(tái)的人類語(yǔ)言資訊庫(kù),費(fèi)用大概是千萬(wàn)美元級(jí)。所以,如果沒有微軟當(dāng)年投資給OpenAI的十億美元,我們恐怕也無(wú)法在《衛(wèi)報(bào)》上讀到GPT-3的友好宣言。
然而,人工智能能夠愉快地勝任客服、播音員、同聲翻譯,甚至新聞通稿撰寫者,并不意味著它能夠和人類一樣思維,能和人類展開“合情合理”的自由對(duì)話,甚至情感互動(dòng)。例如谷歌在今年9月剛剛推出的聊天機(jī)器人米娜(Meena),背后支持它的是最新版本的BERT語(yǔ)言模型,數(shù)據(jù)庫(kù)中囊括了341GB網(wǎng)絡(luò)語(yǔ)言資料,但你依舊只能和它客氣地寒暄,一旦涉及復(fù)雜一些的感受和場(chǎng)景,米娜就無(wú)能為力了………
人類:我準(zhǔn)備去上小提琴課
米娜:你學(xué)了多久?
人類:剛剛開始一個(gè)月!
米娜:太棒了,你真了不起!你為什么要學(xué)小提琴?
人類:額,再過(guò)兩個(gè)月是我女朋友的生日,我想在她的生日晚會(huì)上拉一曲!給她一個(gè)驚喜。
米娜:生日和驚喜之間有什么關(guān)系?
無(wú)獨(dú)有偶,這種尷尬的局面也曾發(fā)生在GPT-3身上:
科研人員:你給自己倒了一杯蔓越莓果汁,然后你又心不在焉地往里面加了一茶匙葡萄汁。它看上去很正常。你試著聞了聞它,但是由于你得了重感冒,你并聞不出任何氣味。你現(xiàn)在非常渴,所以……
GPT-3:所以你把這杯混合果汁喝了下去。你現(xiàn)在掛掉了。
一向“唱衰”人工智能語(yǔ)言處理技術(shù)的紐約大學(xué)教授,機(jī)器學(xué)習(xí)初創(chuàng)公司CEO加里·馬庫(kù)斯(Gary Marcus)說(shuō),像GPT-3這樣的AI語(yǔ)言學(xué)習(xí)模型,根本不理解自己在說(shuō)什么,在接到外部輸入的信息后,它只不過(guò)是利用算力在自己海量語(yǔ)言資訊庫(kù)中檢索那些與輸入信息相關(guān)的高頻詞匯,再按照某種機(jī)械的算法邏輯拼湊出一個(gè)似是而非的答案。
例如,雖然GPT-3能創(chuàng)造那些“莎士比亞”風(fēng)格詩(shī)歌,但如果你和它較真,輸入一些背景模糊、關(guān)系復(fù)雜的事物,再讓它給出一個(gè)合理解決方案,人工智能就要露餡了。所以很遺憾,距離實(shí)現(xiàn)“像人類一樣用語(yǔ)言交流”,人工智能還有很長(zhǎng)的路要走。
我們不禁納悶,人工智能已經(jīng)能在國(guó)際象棋、電子游戲和模擬空戰(zhàn)中輕松戰(zhàn)勝人類,為何在對(duì)話中依舊如此笨拙?加州大學(xué)伯克利分校的斯圖爾特·羅素教授在剛出版的《人類相容:人工智能與控制問題》一書中給出了一個(gè)答案:人工智能已經(jīng)非常“聰明”(Clever),但還不夠聰慧(Smart),前者得益于強(qiáng)大的芯片計(jì)算能力和數(shù)據(jù)庫(kù),而要實(shí)現(xiàn)后者,則要依靠邏輯推理能力,乃至基于“常識(shí)”的判斷,而這些依舊是人類獨(dú)有,機(jī)器無(wú)法逾越的能力門檻。
現(xiàn)有學(xué)習(xí)框架和算法,使得人工智能僅靠數(shù)據(jù),無(wú)法以人類邏輯來(lái)處理和理解人類語(yǔ)言 | www.techrepublic.com
具體到人工智能對(duì)于語(yǔ)言的處理上,羅素提出了一個(gè)有趣的比喻——“中文房間”:一個(gè)不懂中文,但學(xué)習(xí)能力超強(qiáng)的人坐在一間充斥著中文語(yǔ)法書的房間里,每當(dāng)門外塞進(jìn)一張寫著中文問題的紙條,他就通過(guò)查閱語(yǔ)法書,在另一張紙條寫上一個(gè)自己力所能及的中文回答送出去。
看到這里,大家可能已經(jīng)明白,這個(gè)“不懂中文的人”,就是人工智能,而“中文”則象征一切人類的日常語(yǔ)言和常識(shí),語(yǔ)法書則是人工智能科研人員利用計(jì)算機(jī)語(yǔ)言所搭建的學(xué)習(xí)框架和邏輯。
問題在于,這些“語(yǔ)法書”并不完美,語(yǔ)言過(guò)于復(fù)雜和隨意,很難還原成一系列嚴(yán)格的規(guī)則,也很難被機(jī)械邏輯所量化,即使最先進(jìn)的神經(jīng)網(wǎng)絡(luò),仍然無(wú)法從句子層面理解單詞的含義,“它會(huì)覺得‘一個(gè)人咬了那只狗’和‘一只狗咬了那個(gè)人’表達(dá)了完全相同的意思”。
一個(gè)幫助人工智能理解人類語(yǔ)言結(jié)構(gòu)的樹形結(jié)構(gòu)案例,動(dòng)詞詞組,名詞詞組和介詞詞組被拆分,單詞則按照邏輯聯(lián)系強(qiáng)弱進(jìn)行再分組 | https://www.nltk.org
如果要想讓人工智能用“人類思維模式”來(lái)理解語(yǔ)言,現(xiàn)有的初步解決方案是在機(jī)器學(xué)習(xí)中,加強(qiáng)語(yǔ)言結(jié)構(gòu)中某些元素的權(quán)重,比如突出“主語(yǔ)”、“動(dòng)詞謂語(yǔ)”和“賓語(yǔ)”,讓單詞之間的邏輯關(guān)系呈“樹形”分布,有些單詞之間的聯(lián)系強(qiáng),有些則弱,從而使得人工智能能夠很好地學(xué)習(xí)上下文理解,以及辨識(shí)出兩個(gè)相隔很遠(yuǎn)的單詞之間的關(guān)系。
按照這種訓(xùn)練模式,位于舊金山的人工智能語(yǔ)音技術(shù)公司Primer研發(fā)的自然語(yǔ)言處理技術(shù)(NLP)模型,已經(jīng)可以撰寫出非?!皹?biāo)題黨”的新聞專欄標(biāo)題和簡(jiǎn)單報(bào)道,甚至可以對(duì)復(fù)雜的電影劇本加以總結(jié),例如輸入《蝙蝠俠·黑暗騎士》的劇本,它就會(huì)輸出如下概述:
哈維·丹特和高登結(jié)成聯(lián)盟,打擊哥譚市的有組織犯罪
小丑向其他犯罪組織提出建議,自己謀殺丹特,報(bào)酬是一半犯罪組織持有的黑錢
小丑試圖通過(guò)制造犯罪事件殺害更多的人來(lái)逼迫蝙蝠俠公布身份
哈維·丹特和蝙蝠俠抓住了小丑
小丑脫逃并襲擊了渡輪
蝙蝠俠逮捕了殺害丹特和瑞秋的小丑
不過(guò),研究人員還不知足,畢竟新聞報(bào)道和劇本的敘事結(jié)構(gòu)是線性的,包含元素的因果關(guān)系相對(duì)明確,非常符合AI的分析認(rèn)知模式。于是,他們決定挑戰(zhàn)一下,試圖了解這個(gè)語(yǔ)言模型是否能夠理解詩(shī)歌,就輸入了T·S艾略特的《J·阿爾弗瑞德·普魯弗洛克的情歌》,結(jié)果令人尷尬:人工智能無(wú)法做出總結(jié),只能勉強(qiáng)摘出整首詩(shī)歌中最具現(xiàn)實(shí)性場(chǎng)景的一句作為答案:“在客廳里女士們來(lái)回地走,談著畫家米開朗基羅?!?/p>
在索邦大學(xué)數(shù)學(xué)與計(jì)算機(jī)科學(xué)研究專家菲利普·艾斯林(Philippe Esling)看來(lái),問題的核心在于人工智能無(wú)法擁有人類最寶貴的想象力,因而并不能真正理解它自己所生產(chǎn)的語(yǔ)言內(nèi)容,更遑論評(píng)估其價(jià)值。一些人工智能語(yǔ)言專家說(shuō),人工智能所面臨的“終極圖靈測(cè)試”,很可能是人工智能是否能理解幽默并講出一個(gè)人類覺得好笑的笑話,因?yàn)槔斫庥哪瑫r(shí)需要了解場(chǎng)景、參與者的身份、情緒、語(yǔ)言的各種非常規(guī)運(yùn)用,以及人類的行為準(zhǔn)則和價(jià)值判斷。
加州大學(xué)圣地亞哥分校的人工智能研究專家賈內(nèi)爾·謝恩(Janelle Shane) 曾試圖用一個(gè)囊括43000個(gè)笑話的語(yǔ)言數(shù)據(jù)庫(kù)對(duì)AI進(jìn)行訓(xùn)練,煞費(fèi)苦心地總結(jié)了幾十種笑話中的語(yǔ)言范式與主題,例如“對(duì)對(duì)方父母的嘲諷”,“性”,“異于常人的生理特征”等,然而訓(xùn)練了半天,AI充其量能生成一些“侮辱性的語(yǔ)句”,但依舊不能創(chuàng)造出一個(gè)勉強(qiáng)“及格”的笑話。
那么,破局的關(guān)鍵在哪里?曾經(jīng)擔(dān)任IBM沃森人工智能項(xiàng)目首席科學(xué)家的大衛(wèi)·費(fèi)魯奇(David Ferrucci)認(rèn)為,答案在于幫助AI學(xué)習(xí)人類的“常識(shí)”,從而像人類一樣思考。常識(shí),不僅包括人類所認(rèn)知的世界萬(wàn)事萬(wàn)物,更包括這些事物相互作用的準(zhǔn)則和因果關(guān)系,以及人類獨(dú)有的行為模式和價(jià)值判斷。
“常識(shí),是我們最需要教給AI的東西,它是未來(lái)自然語(yǔ)言理解、無(wú)障礙控制和機(jī)器人的基礎(chǔ)”。為此,費(fèi)魯奇組建了自己的人工智能創(chuàng)業(yè)公司Elemental Cognition,公司研發(fā)了一個(gè)開源AI語(yǔ)言學(xué)習(xí)模型CLARA。而費(fèi)魯奇的目標(biāo),就是將深度學(xué)習(xí)技術(shù)與傳統(tǒng)知識(shí)輸入的方式相結(jié)合,讓CLARA通過(guò)不斷地向操作者提出問題,將回答中包含的邏輯關(guān)系和涉及的概念加入自己的知識(shí)圖譜。
一個(gè)人工智能缺乏“常識(shí)”的經(jīng)典翻譯案例
這項(xiàng)深度學(xué)習(xí)的場(chǎng)景,非常像一個(gè)耐心的父親給自己懵懂的孩子進(jìn)行親子閱讀。費(fèi)魯奇的日常,就是將繪本內(nèi)容輸入CLARA的記憶數(shù)據(jù)庫(kù):“從前,有兩個(gè)小男孩弗蘭多和喬伊,他們都買了一盆綠植,弗蘭多把他的綠植放在陽(yáng)光充足的窗臺(tái)上,長(zhǎng)勢(shì)喜人,但喬伊卻把自己的綠植放在了光線不好的屋子里,后來(lái)喬伊決心也把綠植放到窗臺(tái)上,于是植物枯萎的葉子慢慢恢復(fù)了生機(jī)。”
收到這些訊息后,CLARA旋即在屏幕上打出了一個(gè)問題:“是否弗蘭多將綠植放在窗臺(tái)上,目的是為了保持植物生長(zhǎng)健康?”
聽起來(lái)很幼稚是不是?然而,即使是這種3歲兒童才會(huì)提出的問題,其中包含的因果關(guān)系,也是最“聰明”的人工智能所難以學(xué)會(huì)的?!爱?dāng)你向它提及某種植物的名字,它可以準(zhǔn)確地利用知識(shí)圖譜,組織出一個(gè)相當(dāng)全面,維基百科風(fēng)格的介紹答案,但很不幸,它無(wú)法給你講個(gè)關(guān)于它的笑話,也沒法回答你,如果它照不到陽(yáng)光會(huì)發(fā)生什么事?!辟M(fèi)魯奇說(shuō)。
與此同時(shí),華盛頓大學(xué)艾倫人工智能研究所研究員崔藝珍(Yejin Choi)教授開發(fā)了另一種方法,將深度學(xué)習(xí)與符號(hào)學(xué)習(xí)相結(jié)合,以便讓人工智能運(yùn)用人類的邏輯來(lái)理解語(yǔ)言。
所謂的“符號(hào)學(xué)習(xí)”,即是一種最古老的人工智能學(xué)習(xí)模式,目的在于讓人工智能的“思維決策”過(guò)程如同人類,逐步認(rèn)識(shí)各類概念的特征,并學(xué)會(huì)處理它們之間的歸屬關(guān)系。
這種學(xué)習(xí)方法的優(yōu)點(diǎn),在于不必像深度學(xué)習(xí)那樣,必須建立龐大的“數(shù)據(jù)庫(kù)”,而AI的整個(gè)決策過(guò)程,也將變得“透明可見”,有利于我們進(jìn)行調(diào)整和優(yōu)化。但缺點(diǎn)是,人類必須像編纂字典一樣,為人工智能編寫海量的標(biāo)簽庫(kù),并在這些概念之間建立復(fù)雜的邏輯關(guān)系,并“翻譯”為計(jì)算機(jī)能理解的語(yǔ)言。一想到諸如 “鈍角”,“翅膀”,“摩擦”,“貓”,“下墜”這樣的基本概念,都必須逐一“教給”電腦,更遑論其他復(fù)雜的概念與變化,我們肯定會(huì)感到頭疼,不過(guò)它誘人的前景,確實(shí)令人難以拒絕。
演講中的崔藝珍教授 | www.microsoft.com
為了達(dá)到這個(gè)終極目的,崔藝珍和她的同事們,建立了一個(gè)自己的人工智能語(yǔ)言學(xué)習(xí)框架COMET,同時(shí)在不斷地編寫為COMET準(zhǔn)備的常識(shí)知識(shí)庫(kù)“Atomics”,里面已經(jīng)擁有上千萬(wàn)個(gè)詞條知識(shí)概念與因果關(guān)系描述。這種巨大的努力和付出已經(jīng)初見成效:加里·馬庫(kù)斯曾向GPT-2提了一個(gè)問題“如果將一根點(diǎn)燃的火柴放入一個(gè)堆滿了木柴和引火物的火爐,那么會(huì)發(fā)生什么?”不出所料,GPT-2“呆住了”。然而崔藝珍的人工智能系統(tǒng)COMET,則輸出了一個(gè)接近正確的答案“他想生火”。
火柴加木柴會(huì)發(fā)生什么?想讓人工智能了解最簡(jiǎn)單基本的因果關(guān)系,符號(hào)學(xué)習(xí)可能是全新而有效的解決方案 | www.deeplearning.org
不僅如此,在訓(xùn)練中,COMET已經(jīng)顯示出了一定的聯(lián)想與“共情”能力,當(dāng)研究人員輸入“父親去上班了”,COMET會(huì)告訴你,這表示父親“想賺錢”,“他很勤勉,自我驅(qū)動(dòng)”,其他人“應(yīng)該為他驕傲”。當(dāng)然,這距離理想狀態(tài)依舊遠(yuǎn)遠(yuǎn)不夠,崔藝珍表示,人工智能如果要更好地理解常識(shí),還必須引入視覺具象化與感知感覺(比如“紅色”與“疼痛”)。
電影《她》中的薩曼莎是一款完美的情感陪護(hù)AI,它和男主人公最終產(chǎn)生了一種微妙的感情 | www.npr.org
一旦這些目標(biāo)最終達(dá)成,人類與AI的關(guān)系,無(wú)疑會(huì)上升到一個(gè)全新的維度,類似電影《她》(Her)中所描寫的場(chǎng)景一般。它不僅能夠提供明確的服務(wù)和解決方案,也能提供情感的慰藉和樂趣。
屆時(shí),我們和人工智能的對(duì)話可能變成這樣:
X貓精靈,給我放一首王菲的《南海姑娘》——收到,聽完之后要不要聽下鄧麗君的原唱?——好吧,把這兩首都添加到我的個(gè)人歌單里——收到,已經(jīng)添加——哎呀,今天的天氣很晴朗,對(duì)面山上的樹木都看得很清楚——是,希望你今天上班的心情和天氣一樣好,順便說(shuō)一句,對(duì)面山上有39684棵樹,希望這個(gè)數(shù)據(jù)能夠幫到你——真不賴,那你覺得我有多少個(gè)腦細(xì)胞?——2個(gè)?哈哈哈,這是個(gè)玩笑…………
[1]https://www·zdnet·com/article/googles-meena-advances-the-exquisite-banality-of-chat-bots/
[2]https://www·wired·com/story/watsons-creator-teach-ai-new-trick-common-sense/
[3]https://www·wired·com/story/computers-are-learning-to-read-but-theyre-still-not-so-smart/
[4]https://www·wsj·com/articles/ai-can-almost-write-like-a-humanand-more-advances-are-coming-11597150800
[5]Yejin Choi ,“PIQA: Reasoning about Physical Commonsense in Natural Language”,Deep AI, 2019·11,
[6]David Ferruci, “To Test Machine Comprehension, Start by Defining Comprehension”, Deep AI, 2020.5
聯(lián)系客服