當前位置:
首頁 > 知識 > ACL 2018最佳論文公布!計算語言學最前沿研究都在這了

ACL 2018最佳論文公布!計算語言學最前沿研究都在這了

來源:acl2018.org、新智元

國際計算語言學協會 (ACL,The Association for Computational Linguistics),是世界上影響力最大、最具活力的國際學術組織之一,其會員遍布世界各地。ACL 會議是計算語言學領域的首要會議,廣泛涉及自然語言的計算方法及其各類研究領域。計算語言學協會第56屆年會,也即ACL 2018,將於7月15日至20日在澳大利亞墨爾本墨爾本會展中心舉行。

昨天,ACL官網公布了本屆大會的最佳論文,包括3篇長論文和2篇短論文。

Best Long Papers

Finding syntax in human encephalography with beam search. John Hale, Chris Dyer, Adhiguna Kuncoro and Jonathan Brennan.

Learning to Ask Good Questions: Ranking Clarification Questions using Neural Expected Value of Perfect Information. Sudha Rao and Hal Daumé III.

Let』s do it 「again」: A First Computational Approach to Detecting Adverbial Presupposition Triggers. Andre Cianflone, Yulan Feng, Jad Kabbara and Jackie Chi Kit Cheung.

Best Short Papers

Know What You Don』t Know: Unanswerable Questions for SQuAD. Pranav Rajpurkar, Robin Jia and Percy Liang

『Lighter』 Can Still Be Dark: Modeling Comparative Color Descriptions. Olivia Winn and Smaranda Muresan

根據ACL官網,今年的會議競爭超級激烈:一共接受了1018份長文中的258篇和526篇短篇論文中的126篇,總體接受率為24.9%。

最佳論文——長論文(3篇)

1. Finding syntax in human encephalography with beam search.

(使用beam search在人體腦電圖中查找語法)

作者:John Hale, Chris Dyer, Adhiguna Kuncoro & Jonathan Brennan.

(論文內容尚未公布)

2. Learning to Ask Good Questions: Ranking Clarification Questions using Neural Expected Value of Perfect Information.

(學習提問好問題:使用完美信息的神經期望值排列澄清性問題。)

作者:Sudha Rao & Hal Daumé III

論文地址:https://arxiv.org/pdf/1805.04655.pdf

論文摘要

提問(inquiry)是溝通的基礎。除非能提出問題,機器無法有效地與人類合作。在這項工作中,我們建立了一個神經網路模型來排序澄清性問題。我們的模型受到完美信息期望值(expected value of perfect information)的啟發:一個問題好不好在於其預期答案是否有用。我們使用來自StackExchange的數據來研究這個問題。StackExchange是一個豐富的在線資源,人們在上面提問一些澄清式的問題,以便更好地為原始的帖子提供幫助。我們創建一個由大約77k帖子組成的數據集,其中每個帖子包含一個問題和回答。我們在500個樣本的數據集上對我們的模型進行了評估,並與人類專家的判斷進行對比,證明了模型在控制基線上得到重大改進。

模型在測試時的行為

回答生成器的訓練

在500個樣本數據集上測試的模型表現

3. Let』s do it 「again」: A First Computational Approach to Detecting Adverbial Presupposition Triggers.

作者: Andre Cianflone, Yulan Feng, Jad Kabbara and Jackie Chi Kit Cheung.

論文地址:https://www.cs.mcgill.ca/~jkabba/acl2018paper.pdf

論文摘要

在這篇論文中,我們提出一個檢測狀語預設的觸發器的任務,例如「also」或「again」這類詞。解決個任務需要在話語語境中檢測重複或類似的事件,可以應用在自然語言生成任務(例如總結和對話系統)任務。我們為該任務創建了兩個新的數據集,數據來源於Penn Treebank和Annotated English Gigaword兩個語料庫,以及為此任務量身定製的新的注意力機制。我們的注意力機制增加了一個基線遞歸神經網路,而且不需要額外的可訓練參數,從而最大限度地減少了計算成本。我們的工作證明,我們的模型在統計學上優於一些基線模型,包括基於LSTM的語言模型。

我們的數據集中一個包含預設觸發器的樣本

weighted-pooling神經網路架構

最佳論文——短論文(2篇)

1. Know What You Don』t Know: Unanswerable Questions for SQuAD.

作者:Pranav Rajpurkar, Robin Jia and Percy Liang

(論文內容未公開)

2. 『Lighter』 Can Still Be Dark: Modeling Comparative Color Descriptions.

作者:Olivia Winn and Smaranda Muresan

(論文內容未公開)

今年的ACL開設了一個「meta conference」環節,討論雙盲評審以及 ArXiv 預印版相關話題。許多研究表明,當工作的客觀價值保持不變時,單盲評審會導致評審人更偏向於某些類型的研究人員。因此,所有 ACL 會議和大多數研討會都使用雙盲評審制度。而以 ArXiv 為代表的在線預印伺服器的流行,在一定程度上威脅到了雙盲評審過程。

上周,ACL更新了其會議論文的投稿、評審和引用政策。其中規定,為了雙盲評審的有效性,禁止投稿論文在截止日期前的1個月時間內在 arXiv 等平台公開預印本。這些新要求引起一些質疑雙盲評審有效性的聲音,不過,多數研究人員表示支持新政。

因此,其他幾篇最佳論文,可能需要等到7月份會議召開後公開。

- 加入AI學院學習 -


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 AI講堂 的精彩文章:

獲贊2萬,一文讀懂深度學習
全球科技巨頭爭相加入AI晶元大戰

TAG:AI講堂 |