當前位置:
首頁 > 新聞 > 「NLP2005年以來大突破」語義角色標記深度模型,準確率提升10%

「NLP2005年以來大突破」語義角色標記深度模型,準確率提升10%

「NLP2005年以來大突破」語義角色標記深度模型,準確率提升10%

新智元編譯

「NLP2005年以來大突破」語義角色標記深度模型,準確率提升10%

日前,「Stanford NLP Group」 發推特表示,華盛頓大學、FAIR 和艾倫研究所的合作研究 Deep Semantic Role Labeling: What Works and What』s Next ,是 NLP 「2005 年以來首個大突破」。該論文已經被 ACL-17 接收。論文的第一作者是華盛頓大學的華人博士生何律恆。

「NLP2005年以來大突破」語義角色標記深度模型,準確率提升10%

新智元為您做了這篇論文的譯介。

為 SRL 引入新的深度學習模型,顯著提高了現有技術水平

我們為語義角色標註(SRL)引入了一個新的深度學習模型,顯著提高了現有技術水平,同時對其優缺點進行了詳細的分析。我們使用了約束解碼(constrained decoding)的深度 highway BiLSTM 架構,同時考察了近來初始化和正則化的最佳做法。我們的 8 層模型在 CoNLL 2005 測試集上達到 83.2 F1,在 CoNLL 2012 測試集上達到了 83.4 F1。與以前的技術水平相比,大約減少了 10% 的相對誤差率。對研究結果的實證分析表明:(1)深度模型在恢復長距離語義依存關係方面表現出色,但仍然會犯明顯錯誤;(2)語義分析仍然有改進空間。

語義角色標註(SRL)系統的目標是恢復一個句子的謂詞-論元結構,來做出基本判斷:「誰對誰做了什麼」,「何時」和「哪裡」。最近,沒有句法輸入的 SRL 的端到端深度模型(Zhou 和 Xu,2015; Marcheggiani 等,2017)取得的突破似乎推翻了長期以來的觀點,即語義分析是這一任務的先決條件(Punyakanok等,2008)。在本文中,我們展示了這一結果可以通過具有約束解碼的深度 highway 雙向 LSTM 進一步推動,並再次顯著提高了現有技術(在 CoNLL 2005 上有兩個點的提升)。我們還對目前哪些技術取得了好的表現、還需要做什麼以進一步提升表現進行了仔細的實證分析。

我們的模型結合了最近深度學習文獻中的一些最優的做法。在Zhou和Xu (2015)之後,我們將 SRL 視為 BIO 標記問題,並使用深度雙向 LSTM。然而,我們做出了以下調整:(1)簡化輸入和輸出層;(2)引入 highway connections(Srivastava 等,2015; Zhang 等,2016);(3)使用循環dropout(Gal 和Ghahramani,2016);(4)用BIO 約束進行解碼;(5)與專家產品合并。我們的模型比 2005 年和 2012年 CoNLL 測試集的技術水平相對誤差減少了10%。我們還報告了 predicted predicates 的性能,以激發未來對端到端 SRL 系統的研究。

我們提供詳細的誤差分析,以更好地理解性能提升,包括(1)對架構、初始化和正則化的設計選擇,對模型性能有非常大的影響; (2)不同類型的預測誤差顯示,該深度模型在預測長距離依賴方面表現優異,但仍然受困於已知挑戰(如 PP- attachment errors 和adjunct-argument distinctions);(3)語法角色表明存在明顯的 oracle syntax 改進空間,但現有自動解析器的誤差阻止了 SRL 中的有效使用。

總結來說,我們的主要貢獻包括:

?由開源代碼和模型支持的端到端 SRL 的新型最先進深度網路。

?深入的誤差分析,指出模型的工作原理及其挑戰,包括結構一致性和長距離依賴關係的討論。

?對未來改進方向有借鑒意義的實驗,包括詳細討論如何和何時使用句法解析器來改進這些結果。

我們的深度 SRL 模型的成功有兩個原因

我們深度 SRL 模型的成功有兩個原因:(1)應用訓練深度循環神經網路中的最新進展,如 highway connections(Srivastava等,2015)和RNN dropout(Gal和Ghahramani,2016)(2)使用A *解碼演算法(Lewis 和Steedman,2014; Lee 等人,2016),以強化預測時間的結構一致性,而不增加訓練過程的複雜性。

「NLP2005年以來大突破」語義角色標記深度模型,準確率提升10%

圖1:四層Highway LSTM。曲線連接表示highway connections,+ 號表示控制層間信息流的變換門。

「NLP2005年以來大突破」語義角色標記深度模型,準確率提升10%

表1:CoNLL 2005 上的實驗結果,涉及精度(P),召回率(R),F1和完全正確謂詞百分比(Comp.)。我們報告了我們最好的 single 和 ensemble 模型(PoE)的結果。比較模型是Zhou 和Xu(2015),FitzGerald 等(2015),Ta?ckstro?m 等(2015),Toutanova 等(2008)和Punyakanok等(2008年)。

「NLP2005年以來大突破」語義角色標記深度模型,準確率提升10%

表2:CoNLL 2012 上的實驗結果採用和表1 相同的度量方法。我們將我們最好的 single 和 ensemble (PoE)模型與Zhou and Xu (2015), FitzGerald 等(2015), Ta ?ckstro ?m 等(2015) 和Pradhan 等(2013) 進行比較.

「NLP2005年以來大突破」語義角色標記深度模型,準確率提升10%

表3:使用 predictedpredicates 的謂詞檢測性能和端到端SRL 結果。與我們最好的 gold predicates ensemble 模型相比,ΔF1 顯示出絕對的性能下降。

「NLP2005年以來大突破」語義角色標記深度模型,準確率提升10%

圖2:various ablations 的平滑學習曲線。Highway 層組合,正交參數初始化和循環 dropout 對於實現強大的性能至關重要。這裡顯示的數字沒有約束解碼。

「NLP2005年以來大突破」語義角色標記深度模型,準確率提升10%

圖3:與兩個強 non-neural 基線相比,在進行序列中各種類型的oracle轉換後的表現。Add Arg 轉化之後,gap 被合攏,顯示了我們的方法和傳統系統相比,是如何從預測更多論元中獲益的。

「NLP2005年以來大突破」語義角色標記深度模型,準確率提升10%

表4:Oracle 轉換與每個操作後的相對誤差減少配對。所有操作只有在不引起任何重疊參數的情況下才被允許。

「NLP2005年以來大突破」語義角色標記深度模型,準確率提升10%

表5:標記誤差的混淆矩陣,顯示了「the percentage ofpredicted labels for each gold label」。我們僅計入了匹配 gold span boundaries 的預測論元。

「NLP2005年以來大突破」語義角色標記深度模型,準確率提升10%

圖4:對於我們的模型將gold span 一分為二(Z→XY)或合并兩個 gold constituents(XY→Z)的情況,我們展示了Yspan 句法標籤的分布。結果顯示,這些誤差的主要原因是不準確的介詞短語attachment。

「NLP2005年以來大突破」語義角色標記深度模型,準確率提升10%

圖5:謂詞與論元之間的表面距離F1。對於較深層的神經模型,性能隨論元距離增長而衰減的程度最小。

「NLP2005年以來大突破」語義角色標記深度模型,準確率提升10%

圖6:強制執行核心角色只能發生一次(+SRL)的約束條件,性能受到損害的示例。

「NLP2005年以來大突破」語義角色標記深度模型,準確率提升10%

表6:2005年CoNLL上的F1,以及按類型細分的CoNLL 2012 上的 development set。語法約束解碼(+ AutoSyn)顯示了域內數據(CoNLL 05 和 CoNLL 2012 NW)的更大改進。

原文地址:https://homes.cs.washington.edu/~luheng/files/acl2017_hllz.pdf

點擊「閱讀原文」查看新智元招聘信息

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

「Bengio領銜」DeepMind、谷歌大腦核心研究員2017深度學習最新報告(PPT)
Facebook 創意生成網路CAN,比 GAN 更有創造力
DeepMind、谷歌大腦核心研究員2017深度學習最新報告
DeepMind數據隱私門終裁,使用NHS患者數據被判違法

TAG:新智元 |

您可能感興趣

RTX 2080 Ti深度學習性能暴增最多65%!代價卻是漲價71%
深度解析:30分鐘暴漲1157.9%;半個月爆漲超百倍
2018款賓士G級到店!涉水深度700毫米 配低速四驅+三把100%差速鎖
2017-2018中國機器人創新Top100榜單深度分析
2018年興奮點:TOP15深度學習應用!
來了!2018 MIT 6.S094 中文譯版「深度學習和自動駕駛課」今日上線
3000預算,選小米8還是大屏旗艦榮耀Note10,深度對比
2017-2018年物聯網Top100深度分析
i7 8700k與8700深度對比
7000美元,搭建4塊2080Ti的深度學習工作站
NVIDIA GTX1070 8GB公版顯卡/吃雞遊戲/GPU深度學習 1080 1060現貨
新核彈RTX2080/Ti深度評測:近年來顯卡最重磅的升級?
深度解析!我為什麼支持UBTC?2027年市值將達3.9萬億美金?
各國步槍穿甲深度比拼,M4僅3毫米,95式媲美AK47
這款日產GT-R售價6000萬!深度爆改後的GT3賽車!
17.3英寸的萬元遊戲本上手指南,Dell G7-7790的深度測評
全新「電鏡系列」萬代MG深度強襲MSA-0011303E重磅來襲!
MG系列200款達成!MG 1/100 深度強襲 情報更新!
2025年深度學習晶元組市場將達到663億美元
360手機N7深度評測:驍龍660+5030mAh電池 除了性價比還有什麼看點