ICML 2017首日公布兩大獎項:斯坦福大學獲最佳論文獎
機器之心報道
機器之心編輯部
當地時間 8 月 6 日,第 34 屆國際機器學習大會(ICML 2017)在澳大利亞悉尼正式開幕。在大會的第一天下午,備受關注的本屆大會最佳論文等獎項也已公布。
ICML 是計算機科學領域的頂會之一。在機器之心昨日的文章《計算機領域頂級科學家、學術會議、期刊影響力排名(附國內排名)》中,根據 Google Scholar Metrics 的 H5-Index 值作出的排名可以看出,ICML 在計算機科學領域眾多會議中位列第四。
據統計,ICML 2017 共評審了 1676 篇論文,接收了 434 篇,錄取率為 25.89%。在機器之心之前報道的論文中,也有眾多為 ICML 2017 所接收,比如百度有關 Deep Voice、Gram-CTC 的論文。據機器之心了解,騰訊 AI Lab 也有四篇論文入選 ICML 2017。
今日,ICML 2017 公布了最佳論文、Test of Time Award 以及榮譽提名論文,共 7 篇獲獎論文。
獲獎論文如下:
最佳論文獎
論文:Understanding Black-box Predictions via Influence Functions
作者:Pang Wei Koh、Percy Liang
機構:斯坦福大學
Honorable Mentions
論文:Lost Relatives of the Gumbel Trick
作者:Matej Balog、Nilesh Tripuraneni、Zoubin Ghahramani、Adrian Weller
機構:劍橋大學、圖賓馬普智能系統所等機構
論文:Modular Multitask Reinforcement Learning with Policy Sketches
作者:Jacob Andreas、Dan Klein、Sergey Levine
機構:加州大學伯克利分校
論文:A Unified Maximum Likelihood Approach for Estimating Symmetric Properties of Discrete Distributions
作者:Jayadev Acharya、Hirakendu Das、Alon Orlitsky、Ananda Suresh
機構:康奈爾大學、雅虎等機構
Test of Time Award
論文:Combining Online and Offline Knowledge in UCT
作者:Sylvain Gelly、David Silver
機構:巴黎南大學、阿爾伯塔大學
Honorable Mentions
論文:Pegasos: Primal Estimated sub-GrAdient SOlver for SVM
作者:Shai Shalev-Shwartz、Yoram Singer、Nathan Srebro、Andrew Cotter
機構:耶路撒冷希伯來大學、谷歌、芝加哥豐田工業大學
論文:A Bound on the Label Complexity of Agnostic Active Learning
作者:Steve Hanneke
機構:卡內基梅隆大學
本文中,機器之心對這 7 篇論文進行了摘要介紹。
最佳論文
論文:Understanding Black-box Predictions via Influence Functions
地址:http://proceedings.mlr.press/v70/koh17a/koh17a.pdf
摘要:我們應該如何解釋黑箱模型的預測結果?在本論文中,我們使用影響函數(influence functions),即一種魯棒統計(robust statistics)的經典技術,它可以通過學習演算法追蹤模型的預測並返回訓練數據,因此我們能確定最影響給定預測的訓練數據點。為了將影響函數擴展到現代機器學習設定中,我們開發了一個簡單並高效的實現,它只需要對梯度和 Hessian-vector 積有 oracle 訪問。我們展示了即使在理論失效的非凸和不可微模型下,影響函數的近似依然能提供有價值的信息。在線性模型和卷積神經網路中,我們展示了影響函數的多用途性:理解模型的行為、檢測模型錯誤、檢測數據集錯誤,它甚至能構建視覺上不可區分的攻擊訓練集。
Honorable Mentions
論文:Lost Relatives of the Gumbel Trick
地址:http://proceedings.mlr.press/v70/balog17a/balog17a.pdf
摘要:Gumbel 技巧是一種從離散概率分布中抽樣或估計其歸一化配分函數(partition function)的方法。該方法依賴於使用特定方式對分布重複應用隨機擾動,並且每一次都求解最可能的配置。我們推導出了一系列相關的方法,其中 Gumbel 技巧就是其中一員,本論文表明新方法因為有最小的額外計算成本而在多種設置中有優秀的屬性。特別的,Gumbel 技巧對於離散圖模型(discrete graphical model)有計算優勢,並且在所有配置上的 Gumbel 擾動通常被所謂的低秩擾動(low-rank perturbations)所替代。我們展示了新方法的子系列如何適應這種設置,並證明了對數配分函數一種新的上確界和下確界,且推導出吉布斯分布(Gibbs distribution)的一系列序列採樣。最後,我們展示了如何從 Gumbel 技巧簡化分析並推導出額外的理論結果。
論文:Modular Multitask Reinforcement Learning with Policy Sketches
地址:http://proceedings.mlr.press/v70/andreas17a/andreas17a.pdf
摘要:我們描述了一個由策略 sketch 引導的用於多任務深度強化學習的框架。Sketch 使用命名的子任務序列來標註任務,提供任務之間高層次結構關係信息,而不是如何實施它們——具體來說,就是不提供強化學習之前的學習策略抽象工作所使用的詳細指導(如中間獎勵、子任務完成信號、內在動機)。為了從 sketch 中學習,我們展示了一個模型,該模型將每一個子任務和模塊子策略結合起來,並通過在共享子策略之間嘗試參數,將全部任務特定的策略的獎勵最大化。該模型通過解耦合 actor-critic 訓練目標完成優化,即推動模型從多種不同獎勵函數中學習普遍行為。我們在三種環境中對我們方法的有效性進行評估:離散控制環境、持續控制環境和帶有完成一系列高層次子目標才能獲取的稀疏函數的環境。實驗證明在 sketch 的引導下使用我們的方法學習策略的性能優於現有的學習任務特定或共享策略的技術,通過我們的方法可自然歸納出一個可解釋的原始行為庫,該庫可重新整合以快速適應新任務。
論文:A Unified Maximum Likelihood Approach for Estimating Symmetric Properties of Discrete Distributions
地址:http://proceedings.mlr.press/v70/acharya17a/acharya17a.pdf
摘要:許多應用中出現了諸如支持大小、支持覆蓋率、熵和一致性接近度(proximity to uniformity)等對稱分布特性。最近,研究人員應用了不同的估計量和分析工具來為每個這些特性漸進地推導樣本最優近似。我們表明,單個簡單的插件估計量——profile 最大似然(profile maximum likelihood/PML)——是可與所有對稱特性相競爭的樣本;尤其是對於以上所有屬性,PML 是漸進地樣本最優的。
Test of Time Award
論文:Combining Online and Offline Knowledge in UCT
地址:http://www.machinelearning.org/proceedings/icml2007/papers/387.pdf
摘要:UCT 演算法使用基於樣本的搜索學習在線價值函數(value function)。T D(λ) 演算法可以學慣用於在策略分布的離線價值函數。我們考慮了三種方法在 UCT 演算法中結合離線和在線價值函數。第一種,離線價值函數在蒙特卡洛模擬中作為默認策略。第二種,把 UCT 價值函數與在線評估動作值結合起來。第三種,離線價值函數在 UCT 搜索樹中作為先驗知識(prior knowledge)。我們在 9 × 9 圍棋對戰 GnuGo 3.7.10 中對這些演算法進行評估。第一種演算法性能優於使用隨機模擬策略的 UCT 演算法,但卻意外地比使用較差的人工模擬策略的 UCT 演算法性能要差。第二種演算法性能優於 UCT 演算法。第三種演算法優於使用人工先驗知識的 UCT 演算法。我們在 MoGo(世界上最強大的 9 × 9 圍棋程序)中結合了這些演算法。每一種技術都顯著改善了 MoGo 的下棋水平。
Honorable Mentions
論文:Pegasos: Primal Estimated sub-GrAdient SOlver for SVM
地址:http://ttic.uchicago.edu/~nati/Publications/PegasosMPB.pdf
摘要:我們描述分析了一個簡單有效的隨機子梯度下降演算法(stochastic sub-gradient descent algorithm),用於解決支持向量機(SVM)提出的優化問題。我們證明了獲得精確度解決方案所需的迭代次數是 O(1/ε),其中每次迭代在單個訓練實例中運行。相比之下,先前 SVM 的隨機梯度下降方法的分析需要 Ω(1/ε^2 ) 次迭代。如先前設計的 SVM 求解器,迭代次數隨著 1/λ 線性縮放,其中 λ 是 SVM 的正則化參數。對於線性核函數,我們方法的總運行時間為 O(d/(λε)),其中 d 是每個實例中非零特徵數量的約束。由於運行時間不直接依賴於訓練集的大小,因此得到的演算法特別適合於從大型數據集學習。我們的方法也可以擴展到非線性核函數,同時仍然僅基於原始目標函數,儘管在這種情況下,運行時確實依賴於訓練集大小。我們的演算法尤其適合解決大型文本分類問題,在這些問題中,我們展示了超過以前的 SVM 學習方法的數量級加速。
論文:A Bound on the Label Complexity of Agnostic Active Learning
地址:http://www.machinelearning.org/proceedings/icml2007/papers/375.pdf
摘要:我們研究了在不可知的 PAC(agnostic PAC)模型中基於池化的主動學習的標註複雜度。具體來說,我們得出了 Balcan、Beygelzimer 和 Langford 提出的 A^2 演算法(Balcan et al., 2006)所做的標註請求數量的一般界限。這表示了不可知的 PAC 模型中標註複雜度的第一個非常重要的通用上界。
※美國沃爾瑪正在發生驚人的事,4700 家店用機器取代了員工
※金融科技與銀行的恩怨錄:要合作?這些痛點必須剔除
※潛心30年,知網知識系統如何從概念層次上計算自然語言
※橫向對比三大分散式機器學習平台:Spark、PMLS、TF
TAG:機器之心 |
※「ICML 2018最佳論文出爐」MIT、UC伯克利獲最佳論文,復旦大學等獲提名獎
※ICML 2019 最佳論文公布:繼霸榜後,谷歌再添重磅獎項
※ICML 2018最佳論文出爐:伯克利、MIT最佳論文,復旦大學榜上有名
※ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎
※新鮮出爐 700+ICML 2019 論文集合!
※「乾貨」ICML2018:63篇強化學習論文精華解讀!
※谷歌用1.2萬個模型「推翻」現有無監督研究成果!斬獲ICML 2019最佳論文
※ICML 2019論文接收結果可視化:清華、北大、南大榜上有名
※ICML 2019 大會投稿新要求出爐!
※ICML2018論文公布!一文了解機器學習最新熱議論文和研究熱點
※「最全」機器學習頂會 ICML 2018 接收論文列表
※ICML 2019 深度強化學習文章匯總
※Google「推翻」無監督研究成果!斬獲 ICML 2019 最佳論文
※如何保證演算法公正性?ICML 2018兩篇獲獎論文解讀
※數千人頂會的乾貨,ICML、CVPR2019演講視頻資源在此
※頂會見聞系列:ICML 2018(上),表示學習、網路及關係學習
※【ICML 2019】微軟最新通用預訓練模型MASS,超越BERT、GPT!
※機器學習頂會 ICML 2018 開始了
※機器學習頂會 ICML 2018 斯德哥爾摩開幕,公平性研究戴上光環
※伯克利 AI 研究院提出新的數據增強演算法,比谷歌大腦的 AutoAugment 更強!| ICML 2019 oral 論文