將「雷科技Lite」收藏為我的小程序,不再錯過精彩內容
這兩天,華為的 AI 詩人“樂府”引起不少熱度,用戶通過華為的這個 AI,可以生成不同風格的古詩,五言,七言、絕句,律詩,有不同的風格可以選擇。這些古詩合轍押韻,而且頗有一番意境,如果不告訴你這是 AI 生成的,你很可能以為是古代哪位不知名詩人的遺作。“樂府”的使用方法很簡單,只需要通過微信搜索小程序“EI體驗空間”,在里面就可以找到“樂府作詩”,打開之后,輸入想要使用的標題,點擊“開始作詩”,接下來作詩的事,就交給 AI 來完成了。華為這個作詩 AI使用的,是OpenAI提出的預訓練自然語言模型(Generative Pre-trained Language Model),簡稱GPT。今年 6 月,華為諾亞方舟實驗室就發(fā)表了一篇使用 GPT 模型創(chuàng)造中國古詩的論文,這個“樂府”AI 的實現原理就來自這篇論文。OpenAI 是一個研究AI技術的非營利組織,成立于 2015 年底,總部位于舊金山。其背后的創(chuàng)始人就是“鋼鐵俠”伊隆·馬斯克,他和另一位創(chuàng)始人薩姆奧特曼出于對普遍的人工智能潛在風險的擔憂,決定創(chuàng)辦這個組織。不僅華為使用 GPT 模型,OpenAI 自己也在使用 GPT 模型,他們還搞了一些“大新聞”。最近,《麻省理工科技評論》就發(fā)布了一篇報道,OpenAI 對他們生產假新聞的 AI 系統(tǒng)——fake-news-spewing 進行訓練,經過 40GB 網絡文本的投喂之后,這個 AI 已經可以偽造出一篇肯尼迪總統(tǒng)的演講,這些演講的詞句看起來好像真的出自肯尼迪總統(tǒng)之口。這個假新聞系統(tǒng),使用的就是 GPT的升級版本 GPT-2。事實上,早在今年 2 月份,OpenAI 就公布了他們的 GPT-2 模型。通過使用網絡上大量的文本進行訓練后,該算法就能夠翻譯文本、回答問題和執(zhí)行其他有用的任務。他們甚至還用這個算法生成了一篇俄羅斯對美宣戰(zhàn)假新聞。
(AI系統(tǒng)偽造俄羅斯對美宣戰(zhàn)的新聞)這個 AI 系統(tǒng)很容易讓人產生不安的聯想,如果有人使用 AI 大量造謠怎么辦?要知道,在人人可以成為自媒體的互聯網時代,辟謠已經成為一項艱難的任務,一個謠言很容易被廣泛傳播,但是辟謠的信息卻沒有這么高的傳播效率。人們常常感嘆,“造謠一張嘴,辟謠跑斷腿”。一旦大批量的謠言產生,辨別都將是非常困難的事情,更別提進行辟謠。而且,目前還沒有有效的算法可以完全實現AI識別。為了避免被濫用,OpenAI 也沒有完全開源這個算法。AI 的“創(chuàng)造力”已經越來越強,不僅可以制造以假亂真的假新聞,還能制造出根本不存在的圖片和視頻。前幾天,視頻換臉 App ZAO 就在朋友圈火了一把,用戶只要下載安裝 ZAO 并登錄,上傳一張照片,就能把平臺提供的各種短視頻里明星們的臉替換成自己的。但隨后就因為用戶協(xié)議、隱私等問題引發(fā)爭議,接著被微信封殺,并被工信部約談。ZAO 也修改了用戶協(xié)議并發(fā)表公開道歉。基于深度學習的 AI 換臉技術 DeepFake 很早就有了,這項技術現在早已被開源,已經有很多軟件使用這項技術,普通用戶使用這些軟件,只需簡單幾步,就可以把照片或視頻中的臉換成任何自己喜歡的人。DeepFake 背后,使用的則是人工智能算法 GAN(生成對抗網絡),這個算法簡單來說,就是使用兩個系統(tǒng)對抗,一個系統(tǒng)是生成假數據的生成網絡,另外一個則是判別數據真?zhèn)蔚呐袆e網絡。然后用生成網絡從潛在空間(latent space)中隨機取樣作為輸入,其輸出結果需要盡量模仿訓練集中的真實樣本。判別網絡則對這些結果進行判別,將生成網絡的輸出從真實樣本中盡可能分辨出來,生成網絡盡可能欺騙判別網絡。最終目的是使判別網絡無法判斷生成網絡的輸出結果是否真實。這樣,通過 GAN 算法就可以生產出以假亂真的照片、視頻、三維模型等,由于這些內容經過對抗,判別網絡是無法辨別真假的,這就意味著。這些經過深度學習創(chuàng)造出的內容,人類難以辨別真假,AI 也不行。這樣的結果是,將來互聯網上會出現大量真假難辨的圖片和視頻,以前,我們可以用“眼見為實”來辨別一件事情的真?zhèn)?,但是,今后面對海量的照片和視頻,我們很可能再也無法分辨它們是真實的還是由AI生成的。更進一步,根據 GAN 算法的原理,這些內容使用AI也難以辨別。也就是說,我們將處于一個真假難辨的世界。實際上 AI 真的已經可以直接合成足以騙過人眼的照片,英偉達去年推出了 Style GAN 人工智能算法,使用這個算法就可以生成騙過人眼的假人臉。一位來自 Uber 的軟件工程師 Philip Wang,很快就把這項技術落實了,他創(chuàng)立了一個網站:ThisPersonDoesNotExist.com。每次打開這個網站,都會隨機生成一張人臉照片,這些人臉看不出有什么問題,但是,他們都不是真實存在的人。
(ThisPersonDoesNotExist.com上隨機生成的照片)類似的技術越來越多,文字、圖像甚至視頻可以使用AI合成,語音也不例外。早在 2016 年,谷歌就已經推出了基于深度學習的原始音頻生成模型 WaveNet ,可以運用該技術合成和語料高度相似的語音。國內的科大訊飛、搜狗、騰訊等公司也在做相關研究,比如現在高德地圖上志玲姐姐、郭德綱的聲音,就是通過 AI 語音合成技術合成的。 未來,我們該怎樣面對AI
未來,我們很可能面臨難以分辨真假的問題,一則突發(fā)新聞,很可能是AI生成的,一張照片,可能上面的內容根本就不曾真實存在過。一段視頻,很可能表達的所有事實都是被修改過的。人工智能如此強大,騙過人類似乎再簡單不過。也許,現在拒絕 AI 的發(fā)展還來得及,不然以后的災難誰都無法預料。但是技術本身是沒有價值取向的,無論有益還是有害,都是在于人類的使用。如果濫用,難免滑向不見底的深淵,但只要正確地使用,技術帶來的就是福祉。比如,用于生成虛假圖片的GAN算法,最近就被用到了醫(yī)藥研究上。近日,人工智能藥物發(fā)現公司 Insilico Medicine、藥明康德以及多倫多大學的科學家們使用了強化學習技術的新 AI 系統(tǒng),把從選擇一個靶點到形成潛在的新藥候選分子的過程,縮短到了僅僅 21 天,比傳統(tǒng)方式快了 15 倍。Insilico 的方法就是基于 GAN(生成對抗網絡)和強化學習兩種人工智能,在這里,GAN 算法成了可以治病救人的良方。 讓技術向善,而不是消滅技術
回到要不要阻止 AI 發(fā)展的問題,如果害怕未來 AI 可能會帶來災難,一開始就阻止 AI 技術的發(fā)展,那么,用 AI 造福人類的可能性也就沒有了。就像 GAN 技術一樣,如果,我們害怕它會造出一個真假難辯的世界,那么 Insilico 提高 15 倍效率的技術也就不復存在了。我們關上了通往地獄的窗,但通往天堂的大門可能也因此關閉。所以,應該積極讓技術向善,像馬化騰在“2019世界人工智能大會”上發(fā)表演講時說的那樣,以“科技向善”引領AI全方位治理。當技術可能被用于作惡時,除了主動去避免,更好的辦法可能就是用技術去對抗了。比如,加州大學伯克利分校和南加州大學的研究者,就在研究新的工具用于識別假照片。麻省理工學院-IBM Watson 人工智能實驗室和哈佛大學自然語言處理實驗室的研究人員,也在研究對抗 OpenAI的GPT-2 模型的辦法。像AI這樣的強大工具,本身很復雜,可以向善,也可以作惡。我們要做的應該是讓這個工具更好地服務我們,如果這個工具面臨濫用的風險,最應該考慮的,不是解決掉工具,而是解決風險。本文編輯:realtony
本站僅提供存儲服務,所有內容均由用戶發(fā)布,如發(fā)現有害或侵權內容,請
點擊舉報。