這句話是 AI 寫的——是嗎?OpenAI 的新聊天機(jī)器人 ChatGPT 向我們提出了一個問題:我們?nèi)绾沃牢覀冊诰€閱讀的內(nèi)容是由人還是機(jī)器編寫的?
自11 月下旬發(fā)布以來,ChatGPT 已被超過一百萬人使用。它讓 AI 社區(qū)著迷,而且很明顯,互聯(lián)網(wǎng)正越來越多地充斥著 AI 生成的文本。人們用它來編笑話、寫兒童故事和制作更好的電子郵件。
ChatGPT 是 OpenAI 的大型語言模型 GPT-3的衍生產(chǎn)品,它可以針對提出的問題生成聽起來非常人性化的答案。這些大型語言模型的魔力和危險在于正確性的錯覺。他們寫出的句子看起來是正確的——他們以正確的順序使用了正確種類的單詞。但是人工智能不知道這意味著什么。這些模型通過預(yù)測句子中最有可能出現(xiàn)的下一個詞來工作。他們不知道某件事是對還是錯,即使事實(shí)并非如此,他們也自信地將信息呈現(xiàn)為真實(shí)的。
在一個已經(jīng)兩極分化、充滿政治色彩的網(wǎng)絡(luò)世界中,這些人工智能工具可能會進(jìn)一步扭曲我們消費(fèi)的信息。如果將它們以真實(shí)產(chǎn)品的形式推廣到現(xiàn)實(shí)世界,后果可能是毀滅性的。
研究人員嘗試了多種方法來檢測 AI 生成的文本。一種常見的方法是使用軟件來分析文本的不同特征——例如,閱讀的流暢程度、某些單詞出現(xiàn)的頻率,或者標(biāo)點(diǎn)符號或句子長度是否有規(guī)律。
“如果你有足夠多的文本,一個非常簡單的線索就是'the’這個詞出現(xiàn)了太多次,”谷歌大腦的高級研究科學(xué)家達(dá)芙妮伊波利托說,谷歌大腦是該公司的深度學(xué)習(xí)研究部門。
由于大型語言模型通過預(yù)測句子中的下一個詞來工作,因此它們更有可能使用“the”、“it”或“is”等常見詞,而不是不可靠的罕見詞。Ippolito 和谷歌的一組研究人員在 2019 年發(fā)表的研究中發(fā)現(xiàn),這正是自動檢測系統(tǒng)擅長識別的文本類型。
但 Ippolito 的研究也顯示了一些有趣的東西:人類參與者傾向于認(rèn)為這種“干凈”的文本看起來更好,錯誤更少,因此它一定是一個人寫的。
實(shí)際上,人類編寫的文本充滿了拼寫錯誤,并且變化多端,包含不同的風(fēng)格和俚語,而“語言模型很少出現(xiàn)拼寫錯誤。他們更擅長生成完美的文本,”Ippolito 說。
“文本中的錯別字實(shí)際上是一個很好的指標(biāo),表明它是人寫的,”她補(bǔ)充道。
大型語言模型本身也可用于檢測 AI 生成的文本。自然科學(xué)加拿大研究主席 Muhammad Abdul-Mageed 說,最成功的方法之一是在一些由人類編寫的文本和一些由機(jī)器創(chuàng)建的文本上重新訓(xùn)練模型,以便它學(xué)會區(qū)分兩者- 在不列顛哥倫比亞大學(xué)學(xué)習(xí)語言處理和機(jī)器學(xué)習(xí),并研究過檢測。
與此同時,德克薩斯大學(xué)的計(jì)算機(jī)科學(xué)家 Scott Aaronson 被借調(diào)為 OpenAI 的研究員一年,一直在為 GPT-3 等模型生成的較長文本開發(fā)水印——“這是一種在其他方面不引人注意的秘密信號”詞的選擇,你可以用它來證明,是的,這來自 GPT,”他在他的博客中寫道。
OpenAI 的一位發(fā)言人證實(shí)該公司正在研究水印,并表示其政策規(guī)定用戶應(yīng)該“以一種任何人都不會合理地錯過或誤解的方式”清楚地指出人工智能生成的文本。
但這些技術(shù)修復(fù)伴隨著重要的警告。他們中的大多數(shù)人沒有機(jī)會對抗最新一代的 AI 語言模型,因?yàn)樗鼈兪墙⒃?GPT-2 或其他早期模型之上的。當(dāng)有大量文本可用時,其中許多檢測工具效果最佳;它們在某些具體用例中效率較低,例如聊天機(jī)器人或電子郵件助理,這些用例依賴于較短的對話并提供較少的數(shù)據(jù)進(jìn)行分析。Abdul-Mageed 說,使用大型語言模型進(jìn)行檢測還需要強(qiáng)大的計(jì)算機(jī),以及訪問 AI 模型本身,這是科技公司不允許的。
Solaiman 說,模型越大越強(qiáng)大,就越難構(gòu)建 AI 模型來檢測哪些文本是人寫的,哪些不是。
“現(xiàn)在最令人擔(dān)憂的是 [ChatGPT 有] 非常令人印象深刻的輸出。檢測模型跟不上。你一直在追趕,”她說。
Solaiman 說,檢測 AI 編寫的文本沒有靈丹妙藥。“檢測模型不會成為你檢測合成文本的答案,就像安全過濾器不會成為你減輕偏見的答案一樣,”她說。
為了有機(jī)會解決這個問題,我們需要改進(jìn)技術(shù)修復(fù)并提高人類與 AI 交互時的透明度,并且人們需要學(xué)會識別 AI 編寫的句子的跡象。
“如果有一個 Chrome 插件或任何你正在使用的網(wǎng)絡(luò)瀏覽器的插件,那將是非常好的,它會讓你知道你的網(wǎng)頁上的任何文本是否是機(jī)器生成的,”Ippolito 說。
但是人工智能已經(jīng)在愚弄我們了??的螤柎髮W(xué)的研究人員發(fā)現(xiàn),人們發(fā)現(xiàn) GPT-2 生成的假新聞文章在大約 66% 的情況下是可信的。
另一項(xiàng)研究發(fā)現(xiàn),未經(jīng)訓(xùn)練的人只能在與隨機(jī)概率一致的水平上正確識別 GPT-3 生成的文本。
Ippolito 說,好消息是人們可以接受培訓(xùn)以更好地識別 AI 生成的文本。她開發(fā)了一個游戲來測試在玩家意識到這不是人類之前計(jì)算機(jī)可以生成多少句子,并發(fā)現(xiàn)隨著時間的推移人們會逐漸變得更好。
“如果你查看大量生成文本,并嘗試找出其中沒有意義的地方,你就可以更好地完成這項(xiàng)任務(wù),”她說。一種方法是接受難以置信的陳述,比如人工智能說煮一杯咖啡需要 60 分鐘。
ChatGPT 的前身 GPT-3 自 2020 年才問世。OpenAI 表示 ChatGPT 只是一個演示,但開發(fā)類似功能強(qiáng)大的模型并將其推廣到用于客戶服務(wù)或健康的聊天機(jī)器人等產(chǎn)品中只是時間問題關(guān)心。這就是問題的癥結(jié)所在:該領(lǐng)域的發(fā)展速度意味著識別 AI 生成文本的各種方法很快就會過時。
聯(lián)系客服