中文字幕理论片,69视频免费在线观看,亚洲成人app,国产1级毛片,刘涛最大尺度戏视频,欧美亚洲美女视频,2021韩国美女仙女屋vip视频

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
深度:回顧Google神經(jīng)網(wǎng)絡(luò)機(jī)器翻譯上線歷程 | 雷鋒網(wǎng)

雷鋒網(wǎng)(公眾號(hào):雷鋒網(wǎng))按:本文作者陳村,劍橋大學(xué)自然語言處理(NLP)組, 現(xiàn)為機(jī)器學(xué)習(xí)語義分析工程師。

Google Translate作為久負(fù)盛名的機(jī)器翻譯產(chǎn)品,推出10年以來,支持103種語言,一直作為業(yè)界的標(biāo)桿。

而在前不久,Google官方對(duì)翻譯進(jìn)行一次脫胎換骨的升級(jí)——將全產(chǎn)品線的翻譯算法換成了基于神經(jīng)網(wǎng)絡(luò)的機(jī)器翻譯系統(tǒng)(Nueural Machine Translation,NMT)。從Google官方發(fā)表的博文[1]和技術(shù)報(bào)告[2]中,我們有機(jī)會(huì)一窺究竟,這個(gè)全新的系統(tǒng)到底有什么神奇的地方?筆者借這篇文章,幫大家梳理一下機(jī)器翻譯的發(fā)展歷程,以及Google這次新系統(tǒng)的一些亮點(diǎn)。

| 機(jī)器翻譯的發(fā)展史

機(jī)器翻譯,即把某一種源語言(比如英文)翻譯到最恰當(dāng)?shù)哪繕?biāo)語言(比如中文)。

還在幾年前,機(jī)器翻譯界的主流方法都是Phrased-Based Machine Translation (PBMT),Google翻譯使用的也是基于這個(gè)框架的算法。所謂Phrased-based,即翻譯的最小單位由任意連續(xù)的詞(Word)組合成為的詞組(Phrase),比如下圖中的“北風(fēng)呼嘯”。

PBMT是怎么把一句英文翻譯成中文的呢?

  • 首先,算法會(huì)把句子打散成一個(gè)個(gè)由詞語組成的詞組(中文需要進(jìn)行額外的分詞),如圖中(1)所示;

  • 然后,預(yù)先訓(xùn)練好的統(tǒng)計(jì)模型會(huì)對(duì)于每個(gè)詞組,找到另一種語言中最佳對(duì)應(yīng)的詞組,如圖中(2)所示;

  • 最后,需要將這樣“硬生生”翻譯過來的目標(biāo)語言詞組,通過重新排序,讓它看起來盡量通順以及符合目標(biāo)語言的語法,如圖中(3)所示。

 

圖片出處:Lopez, A. (2008). Statistical machine translation. ACM Computing Surveys, 40(3), 1–49. 

傳統(tǒng)的PBMT的方法,一直被稱為NLP(Natural Language Processing,自然語言處理)領(lǐng)域的終極任務(wù)之一。因?yàn)檎麄€(gè)翻譯過程中,需要依次調(diào)用其他各種更底層的NLP算法,比如中文分詞、詞性標(biāo)注、句法結(jié)構(gòu)等等,最終才能生成正確的翻譯。這樣像流水線一樣的翻譯方法,一環(huán)套一環(huán),中間任意一個(gè)環(huán)節(jié)有了錯(cuò)誤,這樣的錯(cuò)誤會(huì)一直傳播下去(error propagation),導(dǎo)致最終的結(jié)果出錯(cuò)。

因此,即使單個(gè)系統(tǒng)準(zhǔn)確率可以高達(dá)95%,但是整個(gè)翻譯流程走下來,最終累積的錯(cuò)誤可能就不可接受了。

深度學(xué)習(xí)這幾年火了之后,機(jī)器翻譯一直是深度學(xué)習(xí)在NLP領(lǐng)域里成果最為卓越的方向之一。深度神經(jīng)網(wǎng)絡(luò)提倡的是end-to-end learning,即跳過中間各種子NLP步驟,用深層的網(wǎng)絡(luò)結(jié)構(gòu)去直接學(xué)習(xí)擬合源語言到目標(biāo)語言的概率。

2014年,Cho et. al [3]和Sutskever et al. [4] 提出了Encoder-Decoder架構(gòu)的神經(jīng)網(wǎng)絡(luò)機(jī)器翻譯系統(tǒng)。如下圖所示:

首先把源語言一個(gè)詞一個(gè)詞地輸入Encoder,Encoder利用訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)參數(shù),把整個(gè)輸入序列的信息存在一個(gè)隱層向量h中;h這個(gè)隱層,可以理解為包含了所有對(duì)輸入源語言的描述;然后再由Decoder,利用訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)參數(shù),從隱層h中讀取參數(shù),再一個(gè)詞一個(gè)詞地輸出目標(biāo)語言。

via:3.bp.blogspot.com

NMT這樣的過程直接學(xué)習(xí)源語言到目標(biāo)語言,省去了訓(xùn)練一大堆復(fù)雜NLP子系統(tǒng)的依賴,依靠大量的訓(xùn)練數(shù)據(jù)(平行語聊庫(kù),比如同一本書的中文和英文版本),直接讓深度神經(jīng)網(wǎng)絡(luò)去學(xué)習(xí)擬合。熟悉深度學(xué)習(xí)的朋友可能會(huì)意識(shí)到,這樣的方法一個(gè)極大的優(yōu)勢(shì)就是省去了很多人工特征選擇和調(diào)參的步驟。聽說前兩年,有個(gè)做神經(jīng)網(wǎng)絡(luò)圖像處理的教授,在不太了解NLP的基礎(chǔ)上,硬生生地搭建了一套可以匹敵傳統(tǒng)PBMT的機(jī)器翻譯系統(tǒng),后者可是十幾年來多少奮戰(zhàn)在第一線的NLP同志一磚一瓦壘起來的啊。而且,相比于傳統(tǒng)PBMT一個(gè)詞組一個(gè)詞組的獨(dú)立翻譯,NMT這樣end-to-end翻譯出來的語言更加自然流暢。

2015年,Yoshua Bengio團(tuán)隊(duì)進(jìn)一步,加入了Attention的概念。稍微區(qū)別于上面描述的Encoder-Decoder方法,基于Attention的Decoder邏輯在從隱層h中讀取信息輸出的時(shí)候,會(huì)根據(jù)現(xiàn)在正在翻譯的是哪個(gè)詞,自動(dòng)調(diào)整對(duì)隱層的讀入權(quán)重。即翻譯每個(gè)詞的時(shí)候,會(huì)更加有側(cè)重點(diǎn),這樣也模擬了傳統(tǒng)翻譯中詞組對(duì)詞組的對(duì)應(yīng)翻譯的過程。Attention模塊其實(shí)也就是一個(gè)小型神經(jīng)網(wǎng)絡(luò),嵌入在Encoder-decoder之間的,跟著整個(gè)神經(jīng)網(wǎng)絡(luò)訓(xùn)練的時(shí)候一起優(yōu)化訓(xùn)練出來的。

Bengio團(tuán)隊(duì)的這個(gè)工作也奠定了后序很多NMT商業(yè)系統(tǒng)的基礎(chǔ),也包括Google這次發(fā)布的GNMT。

| Google GNMT

Google這次在算法上、尤其是工程上對(duì)學(xué)術(shù)界的NMT方法提出了多項(xiàng)改進(jìn),才促成了這次Google NMT系統(tǒng)的上線。

學(xué)術(shù)上的NMT雖然取得了豐碩的成果,但在實(shí)際的產(chǎn)品中NMT的效果卻比不上PBMT。究其原因Google在技術(shù)報(bào)告[2]中總結(jié)了三點(diǎn):

1、訓(xùn)練和預(yù)測(cè)的速度太慢。

要獲得更好的模擬效果,就要用更深層的神經(jīng)網(wǎng)絡(luò)來擬合參數(shù)(下面會(huì)提到,GNMT用了8層的Stack LSTM來做Encoder)。這么復(fù)雜的神經(jīng)網(wǎng)絡(luò)在預(yù)測(cè)的時(shí)候就要耗費(fèi)大量的資源,遠(yuǎn)遠(yuǎn)慢于PBMT的系統(tǒng)。并且在訓(xùn)練的時(shí)候擬合這么大規(guī)模的預(yù)料,可能要很久很久才能訓(xùn)練一次,這樣不利于快速迭代改進(jìn)調(diào)整模型參數(shù)。

2、NMT在處理不常見的詞語的時(shí)候比較薄弱。

比如一些數(shù)字、或者專有名詞。在傳統(tǒng)PBMT系統(tǒng)中,可以簡(jiǎn)單地把這些詞原封不動(dòng)的copy到翻譯句子中;但是在NMT中,這樣的操作就無法有效的進(jìn)行。

3、有時(shí)候NMT無法對(duì)輸入源句子的所有部分進(jìn)行翻譯,這樣會(huì)造成很奇怪的結(jié)果。

Google NMT的主要神經(jīng)網(wǎng)絡(luò)架構(gòu)圖如下:

仔細(xì)看,其實(shí)還是帶Attenion的Encoder-Decoder邏輯。Encoder是由8層LSTM組成,最下面兩層是一個(gè)雙向LSTM,可以從前到后以及從后往前理解一遍輸入的源語言輸入。中間的藍(lán)色模塊就是Attention模塊,負(fù)責(zé)對(duì)Encoder的邏輯進(jìn)行加權(quán)平均輸出到Decoder層。Decoder模塊也是一個(gè)8層的LSTM,最終連接到Softmax層,一個(gè)詞一個(gè)詞輸出最終的目標(biāo)語言詞語的概率分布。

算法上,論文中還提到了一些創(chuàng)新點(diǎn)。包括引入Wordpiece來對(duì)單詞進(jìn)行更細(xì)粒度的建模,來解決上面提到的不常見詞語的問題;以及在Decoding結(jié)束之后,搜索最佳輸出序列的時(shí)候,引入coverage penalty的概念,來鼓勵(lì)Decoder輸出更加完整的翻譯句子,以解決有時(shí)候NMT有時(shí)候無法完整的翻譯整句的情況。

工程上,報(bào)告里面著重談到了幾個(gè)性能優(yōu)化的重點(diǎn):

  • 引入Risidual Connection

8層的LSTM堆疊起來,大大增加了神經(jīng)網(wǎng)絡(luò)的表達(dá)能力,在海量的數(shù)據(jù)下可以獲得更好的模型效果。不過這樣的堆疊會(huì)直接導(dǎo)致模型太龐大不可訓(xùn)練,在梯度反向傳播的時(shí)候,很容易出現(xiàn)梯度彌散或梯度爆炸的問題。過去的研究證明[5],Residual Connection的方式,直接去學(xué)習(xí)殘差可能會(huì)帶來更好的效果,避免了深度網(wǎng)絡(luò)中反向傳播中出現(xiàn)的梯度反向傳播可能會(huì)發(fā)生的問題。在上面的Google NMT架構(gòu)圖中,從倒數(shù)第三層開始都會(huì)引入Residual Connection。

  • 大量的并行優(yōu)化

與此同時(shí),在工程上Google也進(jìn)行了非常多的優(yōu)化,來減少訓(xùn)練和實(shí)時(shí)翻譯時(shí)候的延遲問題。比如訓(xùn)練數(shù)據(jù)的時(shí)候,數(shù)據(jù)會(huì)分成n等份,交給不同的GPU去異步訓(xùn)練,然后再匯總到統(tǒng)一的參數(shù)服務(wù)器;同時(shí),Encoder和Decoder的不同層的LSTM會(huì)在不同的GPU上運(yùn)行,因?yàn)楦弦粚拥腖STM不必等到下一層的神經(jīng)網(wǎng)絡(luò)完全計(jì)算完畢再開始工作;即使對(duì)于最后的Softmax輸出層,如果最后輸出詞的維度太大,也會(huì)劃分到不同的GPU上并行處理??芍^不放過絲毫并行的機(jī)會(huì)。

底層基礎(chǔ)計(jì)算平臺(tái)的支持。Google NMT采用了自家的Tensorflow深度學(xué)習(xí)框架,并運(yùn)行在Google專門為深度學(xué)習(xí)打造的TPU(Tensor Processing Unit)上,當(dāng)年的AlphaGo也是由TPU提供支持。在對(duì)于模型參數(shù)的計(jì)算上,也大量應(yīng)用了Quantized計(jì)算的技術(shù):

由于神經(jīng)網(wǎng)絡(luò)參數(shù)涉及大量的耗時(shí)的浮點(diǎn)數(shù)運(yùn)算,通過Quantization的方法,將模型參數(shù)由浮點(diǎn)數(shù)類型轉(zhuǎn)換到一個(gè)更低精度(比如8bit),雖然會(huì)有一些精度的損失,但是可以大大減少計(jì)算量以及最終訓(xùn)練模型的體積。

從軟件框架到定制硬件,相互配合,追求最極致的性能。在這篇報(bào)告里,有著長(zhǎng)長(zhǎng)的作者列表,最后赫然列著Google工程架構(gòu)大神Jeffrey Dean的名字,他是當(dāng)年一手創(chuàng)造了Map Reduce、Big Table等產(chǎn)品的Google奠基者之一。

| 寫在后面

Google這次的論文,基本框架仍然是帶Attention模塊的Encoder-Decoder。而且國(guó)內(nèi)廠商,比如百度和搜狗,也發(fā)布了類似的神經(jīng)網(wǎng)絡(luò)機(jī)器翻譯系統(tǒng)。百度早在去年,就發(fā)布“工業(yè)界第一款NMT系統(tǒng)”。不過,Google畢竟是機(jī)器翻譯界的標(biāo)桿,這次披露的論文也揭示了很多他們?yōu)榱舜笠?guī)模商業(yè)化做出的努力,因此在業(yè)界引起了不小的震動(dòng)。

注:[1]A Neural Network for Machine Translation, at Production Scale

[2] Wu, Y., Schuster, M., Chen, Z., Le, Q. V., Norouzi, M., Macherey, W., et al. (2016, September 26). Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation.

[3] Cho, K., van Merrienboer, B., Gulcehre, C., Bougares, F., Schwenk, H., and Bengio, Y. (2014a). Learning phrase representations using RNN encoder-decoder for statistical machine translation. In Proceedings of the Empiricial Methods in Natural Language Processing (EMNLP 2014).

[4] Sutskever, I., Vinyals, O., and Le, Q. (2014). Sequence to sequence learning with neural networks. In Advances in Neural Information Processing Systems (NIPS 2014).

[5] He, K., Zhang, X., Ren, S., & Sun, J. (1512). Deep residual learning for image recognition. arXiv preprint (2015).

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
“實(shí)時(shí)翻譯耳機(jī)”橫空出世,深度剖析三大核心技術(shù)|獨(dú)家
華為諾亞加入競(jìng)爭(zhēng),看深度學(xué)習(xí)如何改變機(jī)器翻譯
DL之Attention:Attention注意力機(jī)制的簡(jiǎn)介、應(yīng)用領(lǐng)域之詳細(xì)攻略
寫給新手看的機(jī)器學(xué)習(xí)原理
華為諾亞方舟實(shí)驗(yàn)室主任李航:自然語言處理的未來趨勢(shì)
你知道什么是神經(jīng)機(jī)器翻譯技術(shù)嗎
更多類似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服