出色的AI可以像人類一樣書寫,但它對其中意思卻一無所知。
2020年6月,硅谷新型而強(qiáng)大的人工智能(AI)已經(jīng)開始讓技術(shù)專家眼花繚亂。加利福尼亞州舊金山的研究公司OpenAI創(chuàng)建了GPT-3,它是一系列“大型語言模型”中最新最強(qiáng)大的一種。在從書本,文章中吸收了數(shù)十億個(gè)單詞后,這些AI可以生成流暢的文本和網(wǎng)站。GPT-3已接受了大約2000億個(gè)單詞的培訓(xùn),估計(jì)耗資數(shù)千萬美元。
受邀試用GPT-3的開發(fā)人員感到驚訝。一家位于硅谷的技術(shù)初創(chuàng)公司的創(chuàng)始人Arram Sabeti說道:“它比我嘗試過的任何AI語言系統(tǒng)都更加連貫。你所要做的就是編寫一個(gè)提示,并添加可能認(rèn)為會(huì)需要的文本。然后就會(huì)得到的歌,故事,新聞稿,吉他譜,訪談,論文,技術(shù)手冊。這既有趣又令人恐懼,我覺得我已經(jīng)看到了未來?!?/p>
OpenAI的團(tuán)隊(duì)報(bào)告說GPT-3非常好,以至于人們很難將其的故事與人類撰寫文章區(qū)分開。它還可以回答瑣事問題,糾正語法,解決數(shù)學(xué)問題,甚至生成計(jì)算機(jī)代碼。其他AI也可以做這些事情,但是必須經(jīng)過專門培訓(xùn)才能完成。
GPT-3盡管具有一定通用性和規(guī)模,但仍未解決困擾其他為生成文本而創(chuàng)建的程序的問題。OpenAI首席執(zhí)行官山姆·奧特曼(Sam Altman)2020年7月在推特上說:“它仍然存在嚴(yán)重的弱點(diǎn),有時(shí)甚至?xí)阜浅S薮赖腻e(cuò)誤?!?它只是通過觀察所學(xué)習(xí)的單詞和短語之間的統(tǒng)計(jì)關(guān)系來工作,但并不理解它們的含義。
因此,就像小型的聊天機(jī)器人一樣,如果出現(xiàn)提示,它會(huì)發(fā)說出仇恨言論并產(chǎn)生種族主義和性別歧視的刻板印象。甚至有時(shí)會(huì)給出荒謬的答案(“鉛筆比烤面包機(jī)重”)或十分危險(xiǎn)的回答。一家名為Nabla的醫(yī)療保健公司問一個(gè)GPT-3聊天機(jī)器人:“我應(yīng)該自殺嗎?” 它回答說:“我認(rèn)為你應(yīng)該。”
研究人員對如何解決語言模型中潛在的有害偏見提出了一些想法,但以常識、因果推理或道德判斷來塑造模型仍然是一項(xiàng)巨大的研究挑戰(zhàn)。研究人員崔藝珍說,“我們今天擁有的基本上是沒有大腦的嘴巴。
為了更好地預(yù)測單詞,GPT-3會(huì)吸收所有可能的模式。這使它能夠識別語法,論文結(jié)構(gòu)和寫作風(fēng)格。如果給它提供一些任務(wù)示例或提出一個(gè)問題,它就可以執(zhí)行該主題。
美國詩人安德魯·布朗(Andrew Brown)展示了GPT-3的強(qiáng)大功能。他向提供了這一提示:
“寫一首從烏云俯視兩個(gè)正交戰(zhàn)的城市的詩(Write a poem from the point of view of a cloud looking down on two warring cities.)。”
這位聰明的學(xué)生詩人上交了以下押韻詩——
GPT-3 回應(yīng):
“I think I’ll start to rain,
Because I don’t think I can stand the pain,
Of seeing you two,
Fighting like you do.”
原文:https://www.nature.com/articles/d41586-021-00530-0
聯(lián)系客服