ChatGPT面世后火遍全球,從軟件工程、數(shù)據(jù)分析、金融財務(wù)、保險、咨詢到市場營銷、媒體、法律、醫(yī)療、科研,都在談?wù)揅hatGPT。ChatGPT多元且強(qiáng)大的功能展現(xiàn)了人工智能發(fā)展速度與水平,但人們也應(yīng)看到,ChatGPT與其他前沿技術(shù)工具一樣,有局限性和潛在風(fēng)險。
美國內(nèi)布拉斯加大學(xué)奧馬哈分校公共管理學(xué)院教授陳哲佑(Yu-Che Chen)與馬薩諸塞大學(xué)波士頓分校公共政策與公共事務(wù)系副教授邁克爾·J.安(Michael J. Ahn)表示,ChatGPT的強(qiáng)項是總結(jié)概括,并不擅長對缺乏數(shù)據(jù)的新現(xiàn)象提供見解、建議。
雖然ChatGPT潛力巨大,但高度依賴ChatGPT可能減弱人對特定類型事實(shí)的記憶力和思維批判能力。人類可以借助ChatGPT來理解復(fù)雜政策,更高效地獲取個性化的公共服務(wù),但若過度依靠ChatGPT,其數(shù)據(jù)庫之外的重要政策信息將被忽視。
ChatGPT可以輕松歸納出英語文學(xué)中最有影響力的10部作品的情節(jié)、名句,并分析作品的意義,但閱讀這種總結(jié)并不等同于閱讀原作。如果這種簡單化、統(tǒng)一化、通俗化的“簡潔版”成為讀者的唯一選擇,會給社會帶來多方面的影響,包括信息和知識的交流與理解方式的改變。在教育和科研領(lǐng)域,ChatGPT可能加劇抄襲現(xiàn)象、扼殺原創(chuàng)力,應(yīng)該允許還是禁止ChatGPT在考試和論文寫作中的應(yīng)用、如何將ChatGPT納入教育和科研政策是教師和學(xué)者必須探討的問題。
據(jù)美國智庫布魯金斯學(xué)會技術(shù)創(chuàng)新中心研究員亞歷克斯·C.恩格勒(Alex C. Engler)介紹,由于ChatGPT等生成式人工智能功能強(qiáng)大,許多企業(yè)希望將此類技術(shù)用于商業(yè)用途,例如編程、視頻游戲環(huán)境設(shè)計、語音識別和分析等。生成式人工智能商業(yè)化的一個關(guān)鍵問題在于,開發(fā)商對最終產(chǎn)物的功能、技術(shù)研發(fā)機(jī)構(gòu)和產(chǎn)品,可能并沒有足夠的了解和控制。上游研發(fā)者未必知道原始模型經(jīng)改寫、整合入更大的系統(tǒng)后會被如何使用,下游開發(fā)者經(jīng)常高估原始模型的能力;因此,合作過程中出現(xiàn)錯誤和意外的概率會上升。
當(dāng)錯誤后果不嚴(yán)重,如商品推薦算法或存在人類審閱環(huán)節(jié),風(fēng)險尚可接受。但當(dāng)多機(jī)構(gòu)參與的人工智能商業(yè)應(yīng)用擴(kuò)展至影響深遠(yuǎn)的社會經(jīng)濟(jì)決策時(教育機(jī)會、招聘、金融服務(wù)、醫(yī)療等),政策制定者必須審視風(fēng)險,權(quán)衡利害。同時,生成式人工智能研發(fā)機(jī)構(gòu)無法確定風(fēng)險,就應(yīng)在服務(wù)條款中清楚說明并限制可疑應(yīng)用。如果合作得到監(jiān)管機(jī)構(gòu)的批準(zhǔn),上游研發(fā)者和下游開發(fā)者應(yīng)前攝性地分享運(yùn)行和測試結(jié)果等信息,以保證原始模型得到恰當(dāng)使用。
生成式人工智能引發(fā)的另一類風(fēng)險是惡意使用,例如不當(dāng)言論和傳播虛假信息、網(wǎng)絡(luò)攻擊。這類風(fēng)險在數(shù)字生態(tài)系統(tǒng)中并非新現(xiàn)象,但生成式人工智能的流行或?qū)⒓觿阂馐褂萌斯ぶ悄艿膯栴}。
新西蘭梅西大學(xué)科學(xué)傳播學(xué)副教授科林·比約克(Collin Bjork)談道,ChatGPT等人工智能工具生成的內(nèi)容將改變?nèi)藗兊膶懽鞣绞?,但無法在語言和內(nèi)容上有所突破。從目前來看,工具寫作的內(nèi)容同質(zhì)化且無趣,還可能加劇偏見和不平等。例如,據(jù)美國新聞網(wǎng)站“商業(yè)內(nèi)幕”報道,美國紐約市的一位高中教師在一項實(shí)驗中讓ChatGPT創(chuàng)建教案,但學(xué)生不喜歡ChatGPT生成的學(xué)習(xí)材料,稱其“含有偏見且非常枯燥乏味”。
長期以來,使用標(biāo)準(zhǔn)英語的白人男性主導(dǎo)著新聞、法律、政治、醫(yī)學(xué)、計算機(jī)科學(xué)、學(xué)術(shù)研究等諸多領(lǐng)域,他們產(chǎn)出的文本遠(yuǎn)遠(yuǎn)多于其他人群。盡管OpenAI并未公開其訓(xùn)練數(shù)據(jù)來源,但英文“標(biāo)準(zhǔn)”的白人男性的作品可能是ChatGPT等大型語言模型的主要訓(xùn)練語料。當(dāng)然,ChatGPT能夠處理多種語言,但問題并不在于它能夠做什么,而在于其默認(rèn)設(shè)置。ChatGPT“出廠”時已被設(shè)置寫作范式,若想讓它生成非規(guī)范文本,需要給出特定的指令。這一問題也見于ChatGPT的“姐妹產(chǎn)品”DALL·E 2中,這款人工智能圖像生成工具同樣由OpenAI開發(fā)。當(dāng)被要求繪制“敲擊鍵盤的手部特寫”時,DALL·E 2生成了幾幅白人男性的手部圖片;輸入更多提示后,它才生成其他膚色的手部圖片。
有人認(rèn)為,ChatGPT等自動文本生成工具能幫助人們避免因?qū)懽鞑缓弦?guī)范而錯失學(xué)業(yè)和職業(yè)機(jī)會。在比約克看來,人們不應(yīng)屈服于既有的不公正。事實(shí)上,寫作本身就會加劇不公正。加拿大英屬哥倫比亞大學(xué)英語語言與文學(xué)系教授愛麗絲·德·蓬加·薩默維爾(Alice Te Punga Somerville)曾說,無法擺脫歷史上的和仍在進(jìn)行的暴力是寫作的一個困境。但她主張的不是放棄寫作,而是批判性地、創(chuàng)造性地利用寫作來反抗壓迫。比約克建議人們擁抱語言多樣性及其帶來的豐富修辭可能性,利用ChatGPT等新工具來書寫更加公平公正的未來。
意大利博科尼大學(xué)計算機(jī)科學(xué)系助理教授黛博拉·諾扎(Debora Nozza)說,“我們過去的研究發(fā)現(xiàn),當(dāng)自然語言處理模型被要求補(bǔ)全一個主語是女性立場的中性句子時,模型經(jīng)常使用傷害性詞語;當(dāng)主語是性少數(shù)群體時,使用傷害性詞語的情況多達(dá)87%。在這一點(diǎn)上,ChatGPT較前代有所改進(jìn),但如果人們提出'正確’的問題,它依然會生成歧視性內(nèi)容。我們必須想辦法從根本上解決這個問題”。
加拿大布魯克大學(xué)政治學(xué)副教授布雷恩·哈格特(Blayne Haggart)提出,ChatGPT作為一種信息獲取途徑,除了可能使論文剽竊、作業(yè)和考試作弊更“便捷”,另一個至關(guān)重要的問題是生成信息的真實(shí)可靠性。我們可以想一想,為什么某些信息來源或某些類型的知識被認(rèn)為更加可信?新聞工作者、學(xué)者、行業(yè)專家的公信力來自他們調(diào)查事實(shí)、提供證據(jù)、具備專業(yè)知識;即使這些人有時也犯錯,其職業(yè)依然具有權(quán)威性。評論文章雖然不像科學(xué)論文那樣必須包含大量引用,但負(fù)責(zé)任的作者仍會指明信息和觀點(diǎn)來源,且這些來源是讀者可以核實(shí)的。
ChatGPT與人類作者產(chǎn)出的內(nèi)容有時非常相似,因此人們難以分辨內(nèi)容的出處,將它視作可靠的信息來源也就不難理解,但其實(shí)兩者的工作原理并不相同。ChatGPT及同類語言模型從海量訓(xùn)練數(shù)據(jù)中學(xué)習(xí)上下文的聯(lián)系,最基本的一點(diǎn)是對詞語序列的概率相關(guān)性建模,即根據(jù)已輸入的語句預(yù)測接下來不同語句出現(xiàn)的概率分布。例如,ChatGPT在“牛吃”后面接“草”,在“人吃”后面接“飯”,不是因為它觀察到了相應(yīng)的現(xiàn)象,而是因為“牛吃草”“人吃飯”是出現(xiàn)概率最高的組合。
“對于語言模型來說,詞語僅僅是詞語。ChatGPT等較新的模型產(chǎn)出的內(nèi)容質(zhì)量高,令人類相信它們理解自己在寫什么,但事實(shí)是它們只是在生成從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)到的最有可能的句子?!辈┛颇岽髮W(xué)計算機(jī)系副教授德克·霍維(Dirk Hovy)說。哈格特強(qiáng)調(diào),就ChatGPT這類工具而言,“真實(shí)”是相關(guān)性的真實(shí),人們無法真正核實(shí)來源,因為它們的來源是統(tǒng)計學(xué)事實(shí)。
博科尼大學(xué)管理與技術(shù)系助理教授希瑟·楊(Heather Yang)介紹說,人們有時將ChatGPT當(dāng)作同類,在某種意義上講這種心態(tài)是自然的。人類是社會動物,這也是人類繁榮的原因之一;以社會性方式互動是人的本能,即使對方是機(jī)器。心理學(xué)研究顯示,人們會根據(jù)交談的對象聽起來是否自信、其推理是否順暢來判斷對方所講是否可信。由于ChatGPT展現(xiàn)出自信的態(tài)度和流暢的表述,人們會誤以為無需核實(shí)其生成的內(nèi)容。
哈格特說,從知識生產(chǎn)的政治經(jīng)濟(jì)學(xué)角度看,過分相信ChatGPT將對“科學(xué)的大廈”和社會的整個信息生態(tài)系統(tǒng)構(gòu)成威脅。無論ChatGPT產(chǎn)出的內(nèi)容多么連貫、通順、看起來符合邏輯,也不應(yīng)將其與人類采用科學(xué)方法驗證過的知識完全等同起來。學(xué)者和新聞工作者更不可不加說明地將ChatGPT生成的文本放入自己的作品中,因為讀者很可能被誤導(dǎo),混淆連貫性與真正的“理解”。
陳哲佑和邁克爾·J.安還提到,ChatGPT有可能引起勞動力市場震蕩,因為生產(chǎn)等量信息需要的人力更少了。不僅是從事重復(fù)性強(qiáng)、可預(yù)測性強(qiáng)的程式化工作(例如行政、客服)的人類勞動者容易被取代,從長期來看,對受教育程度和人類智慧有較高要求的職業(yè),如寫作、編輯、新聞記者、翻譯、法律服務(wù)、科研等,也有可能受到?jīng)_擊。即便是在計算機(jī)行業(yè),ChatGPT已經(jīng)能夠使用Python、C 、JavaScript等常用計算機(jī)語言編寫代碼并識別已寫出的代碼中的錯誤,這使人們不得不質(zhì)疑軟件開發(fā)人員和程序員的未來。雖然ChatGPT不太可能完全取代這些崗位上的人類,但今后或許只需要少數(shù)人來審查、修改和編輯ChatGPT或類似的人工智能工具編寫的代碼,用人需求明顯下降。
在美國哈佛大學(xué)心理學(xué)系教授、大眾科學(xué)作家史蒂芬·平克(Steven Pink)看來,“人類是否會被人工智能取代”不是一個恰當(dāng)?shù)膯栴}表述,因為不存在涵蓋一切智力活動的單一維度的智能衡量指標(biāo)。人們會看到適用于特定目標(biāo)、特定情景的各種人工智能,而非一個全知全能的“神奇算法”。
美國紐約大學(xué)心理學(xué)與神經(jīng)科學(xué)榮休教授蓋瑞·馬庫斯(Gary Marcus)和計算機(jī)科學(xué)教授歐內(nèi)斯特·戴維斯(Ernest Davis)在一組實(shí)驗中觀察到,ChatGPT生成的內(nèi)容可能含有偏見和歧視,也可能是“無中生有”或似是而非;ChatGPT無法推理真實(shí)的物理世界,無法將人類的思想過程與性格聯(lián)系起來,也無法確定故事中的事件順序。“ChatGPT是一個概率性程序,如果重做這組實(shí)驗,可能得出相同的錯誤答案、不同的錯誤答案或正確答案?!眱晌粚W(xué)者說。
平克談道,人們對超級智能有著豐富的想象,但現(xiàn)有的人工智能使用的是在特定情景下解決特定類型問題的算法。這意味著它們在某些方面比人類強(qiáng),在另一些方面則不如人類,今后大概也會是這樣。另外,人類對于智力產(chǎn)品(例如文學(xué)作品、新聞評論)的原真性有更強(qiáng)烈的需求,受眾與真實(shí)的人類作者之間的聯(lián)結(jié)感賦予了這些作品可接受性和地位。
“人們對新技術(shù)的恐懼總是由最糟糕的預(yù)測情景驅(qū)動,并未考慮到真實(shí)世界中可能產(chǎn)生的對策?!?/span>平克說。對于ChatGPT這樣的大型語言模型,人們或?qū)⑿纬筛鼜?qiáng)的批判意識,制定相關(guān)的倫理和職業(yè)守則,研發(fā)能夠識別自動生成內(nèi)容的新技術(shù)。人工智能是對人類智能的模擬,但其運(yùn)作方式、優(yōu)勢和弱點(diǎn)與人類智能不完全相同,這種對比或可加深我們對人類智能之本質(zhì)的理解。
恩格勒說,ChatGPT等生成式人工智能帶來了一些全新挑戰(zhàn),最佳應(yīng)對政策是什么尚不明確。如果研發(fā)機(jī)構(gòu)公開更多有關(guān)研發(fā)過程的詳細(xì)信息并解釋它們是如何開展風(fēng)險管理的,或可為政策討論作出貢獻(xiàn);對大型人工智能模型的開發(fā)商加強(qiáng)監(jiān)管,例如要求其承擔(dān)信息分享責(zé)任、建立風(fēng)險管理體系,也有助于預(yù)防和減輕危害。此外,生成式人工智能的發(fā)展本身也為更有效地干預(yù)創(chuàng)造了機(jī)會,盡管相關(guān)研究剛剛起步。恩格勒指出,沒有哪一種干預(yù)措施是萬能的,但要求人工智能研發(fā)和商業(yè)化機(jī)構(gòu)給社會帶來更多正面影響是合理的。
陳哲佑和邁克爾·J. 安表示,總體而言,ChatGPT是一個強(qiáng)大的工具,或?qū)⒆兏锶藗兲幚硇畔?、交流、工作和生活的方式。提供情境化信息、理解用戶問題背后的意圖、有針對性地滿足用戶需求,是ChatGPT與傳統(tǒng)搜索引擎相比的關(guān)鍵優(yōu)勢,也是人工智能技術(shù)的重要突破。OpenAI現(xiàn)正繼續(xù)改進(jìn)ChatGPT、升級其背后的技術(shù),其他人工智能技術(shù)研發(fā)機(jī)構(gòu)也在開發(fā)相似的工具;與此同時,人們必須關(guān)注這項新技術(shù)的社會影響并防范風(fēng)險。
ChatGPT的創(chuàng)始人山姆·阿爾特曼(Sam Altman)如此評價自己的“天才之作”:“ChatGPT有著令人難以置信的局限性,但在某些方面非常出色,足以給人一種了不起的誤導(dǎo)性印象。目前,依賴ChatGPT來做任何重要的事情都是錯誤的。它是進(jìn)步的預(yù)覽;我們在穩(wěn)健性和真實(shí)性方面還有許多工作要做?!边@份評語或許可以作為人們現(xiàn)階段如何恰當(dāng)?shù)乜创瓦\(yùn)用ChatGPT的提示。
來源:《中國社會科學(xué)報》
聯(lián)系客服