當前位置:
首頁 > 最新 > 機器翻譯新突破!「普適注意力」模型:概念簡單參數少,性能大增

機器翻譯新突破!「普適注意力」模型:概念簡單參數少,性能大增

來源:arxiv,新智元

目前,最先進的機器翻譯系統基於編碼器-解碼器架構,首先對輸入序列進行編碼,然後根據輸入編碼生成輸出序列。兩者都與注意機制介面有關,該機制基於解碼器狀態,對源令牌的固定編碼進行重新組合。

本文提出了一種替代方法,該方法於跨兩個序列的單個2D卷積神經網路。網路的每一層都根據當前的輸出序列重新編碼源令牌。因此,類似注意力的屬性在整個網路中普遍存在。我們的模型在實驗中表現出色,優於目前最先進的編碼器-解碼器系統,同時在概念上更簡單,參數更少。

「普適注意力」模型及原理

我們的模型中的卷積層使用隱性3×3濾波器,特徵僅根據先前的輸出符號計算。圖為經過一層(深藍色)和兩層(淺藍色)計算之後的感受野,以及正常3×3濾波器(灰色)的視野的隱藏部分。

上圖為具有兩個隱藏層的解碼器網路拓撲的圖示,底部和頂部的節點分別表示輸入和輸出。水平方向連接用於RNN,對角線方向連接用於卷積網路。在兩種情況下都會使用垂直方向的連接。參數跨時間步長(水平方向)共享,但不跨層(垂直方向)共享。

塊級(頂部)和每個塊(底部)內的DenseNet體系結構

令牌嵌入大小、層數(L)和增長率(g)的影響

無論是長句、短句,翻譯結果都更好

與現有最佳技術的比較

我們將結果與表3中的現有技術進行了比較,包括德-英翻譯(De-En)和英-德翻譯(En-De)。我們的模型名為Pervasive Attention。除非另有說明,我們使用最大似然估計(MLE)訓練所有模型的參數。對於一些模型,我們會另外報告通過序列水平估計(SLE,如強化學習方法)獲得的結果,我們通常直接針對優化BLEU量度,而不是正確翻譯的概率。

在不同句子序列長度上的表現

在上圖中,我們將翻譯質量視為句子長度的函數,並將我們的模型與RNNsearch、ConvS2S和Transformer進行比較。結果表明,我們的模型幾乎在所有句子長度上都得到了最好的結果,ConvS2S和Transformer只在最長的句子上表現更好。總的來說,我們的模型兼備RNNsearch在短句中的強大表現,同時也接近ConvS2S和Transformer在較長句子上的良好表現。

隱性的句子對齊

上圖所示為最大池化運算符在我們的模型中生成的隱式句子對齊。作為參考,我們還展示了我們的模型使用的「自我注意力」產生的對齊。可以看到,兩種模型都成功定性地模擬了隱性的句子對齊。

我們的模型(L = 24,g = 32,ds = dt = 128),具有不同的池化操作符,使用門控卷積單元

在不同的濾波器尺寸k和深度L下,我們的模型(g = 32,ds = dt = 128)的表現。

與IWSLT德語-英語翻譯模型的最新結果的比較。

(*):使用我們的實現獲得的結果(**):使用FairSeq獲得的結果。

脫離編碼器-解碼器範式,用DenseNet作機器翻譯

我們提出了一種新的神經機器翻譯架構,該架構脫離了編碼器-解碼器範例。我們的模型將源序列和目標序列聯合編碼為深度特徵層次結構,其中源令牌嵌入到部分目標序列的上下文中。沿源維度對此聯合編碼進行最大池化,將相關要素映射到下一個目標令牌的預測。該模型實現基於DenseNet的2D CNN

由於我們的模型會結合語境,對每一層當前生成的目標序列的輸入令牌重新編碼,因此該模型網路構造的每層中都具有「類似注意力」(attention-like)的屬性。

因此,添加明確的「自注意模塊」具有非常有限、但十分積極的效果。然而,我們模型中的最大池化運算符生成的隱式句子對齊,在性質上與注意力機制生成的對齊類似。我們在IWSLT"14數據集上評估了我們的模型,將德-英雙語互譯。

我們獲得的BLEU分數與現有最佳方法相當,我們的模型使用的參數更少,概念上也更簡單。我們希望這一成果可以引發對編碼器-解碼器模型的替代方案的興趣。在未來,我們計劃研究混合方法,其中聯合編碼模型的輸入不是由嵌入向量提供的,而是1D源和目標嵌入網路的輸出。

未來我們還將研究如何該模型來跨多語種進行翻譯。

論文鏈接:

https://arxiv.org/pdf/1808.03867v1.pdf

Github資源:

https://github.com/elbayadm/ attn2d。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 AI講堂 的精彩文章:

Uber自動駕駛3個月燒2億美元,去年虧損超30億,投資者:賣了吧!
機器也能感知時間,AI系統可預測5分鐘內的未來!

TAG:AI講堂 |