當前位置:
首頁 > 新聞 > ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎

ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎

ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎

【新智元導讀】今日,國際機器學習頂會ICML公布2019年最佳論文獎:來自蘇黎世聯邦理工大學、谷歌大腦等的團隊和英國劍橋大學團隊獲此殊榮。另外,大會還公布了7篇獲最佳論文提名的論文。

ICML 2019最佳論文新鮮出爐!

今日,國際機器學習頂會ICML 2019於美國長灘市公布了本屆大會最佳論文結果

ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎

本屆ICML兩篇最佳論文分別是:

  • 挑戰無監督解耦表示中的常見假設》,來自蘇黎世聯邦理工學院(ETH Zurich)、MaxPlanck 智能系統研究所及谷歌大腦;
  • 稀疏高斯過程回歸變分的收斂速度》,來自英國劍橋大學。

除此之外,大會還公布了七篇獲得提名獎(Honorable Mentions)論文。

據了解,今年ICML共提交3424篇論文,其中錄取774篇,論文錄取率為22.6%。錄取率較去年ICML 2018的25%有所降低。

ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎

論文錄取結果地址:

https://icml.cc/Conferences/2019/AcceptedPapersInitial?fbclid=IwAR0zqRJfPz2UP7dCbZ8Jcy7MrsedhasX13ueqkKl934EsksuSj3J2QrrRAQ

ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎

提交論文最多的子領域分別是:深度學習、通用機器學習、強化學習、優化等


最佳論文:大規模深入研究無監督解耦表示

第一篇最佳論文的作者來自蘇黎世聯邦理工學院(ETH Zurich)、MaxPlanck 智能系統研究所及谷歌大腦。

論文標題:挑戰無監督解耦表示中的常見假設

Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations

作者:Francesco Locatello, Stefan Bauer, Mario Lucic, Gunnar R?tsch, Sylvain Gelly, Bernhard Sch?lkopf, Olivier Bachem

ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎

論文地址:

http://proceedings.mlr.press/v97/locatello19a/locatello19a.pdf

這是一篇大規模深入研究無監督解耦表示(Disentangled Representation)的論文,對近年來絕大多數的非監督解耦表示方法進行了探索、利用 2.5GPU 年的算力在 7 個數據集上訓練了 12000 多個模型。基於大規模的實驗結果,研究人員對這一領域的一些假設產生了質疑,並為解耦學習的未來發展方向給出了建議。此外,研究人員還同時發布了研究中所使用的代碼和上萬個預訓練模型,並封裝了 disentanglement_lib 供研究者進行實驗復現和更深入的探索。

ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎

論文摘要

無監督學習解耦表示背後的關鍵思想是,真實世界數據是由一些變數的解釋因子生成的,這些因子可以通過無監督學習演算法恢復。在本文中,我們認真回顧了該領域的最新進展,並對一些常見假設提出挑戰。

我們首先從理論上證明,如果沒有對模型和數據的歸納偏置,解耦表示的無監督學習基本上是不可能的。然後,我們在7個不同數據集上訓練了超過12000個模型,涵蓋了最重要的方法和評估指標,進行了可重複的大規模實驗研究。

我們觀察到,雖然不同的方法都成功地執行了相應損失「鼓勵」的屬性,但如果沒有監督,似乎無法識別出良好解耦的模型。此外,增加解耦似乎不會降低下游任務學習的樣本複雜度。

我們的研究結果表明,未來關於解耦學習的工作應該明確歸納偏見和(隱式)監督的作用,研究強制解耦學習表示的具體好處,並考慮覆蓋多個數據集的可重複的實驗設置。

ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎

本文從理論和實踐兩方面對這一領域中普遍存在的一些假設提出了挑戰。本研究的主要貢獻可概括如下:

  • 我們在理論上證明,如果沒有對所考慮的學習方法和數據集產生歸納偏置,那麼解耦表示的無監督學習基本上是不可能的。
  • 我們在一項可重複的大規模實驗研究中研究了當前的方法及其歸納偏置,該研究採用了完善的無監督解耦學習實驗方案。我們實現了六種最新的無監督解耦學習方法以及六種從頭開始的解耦方法,並在七個數據集上訓練了超過12000個模型。
  • 我們發布了disentanglement_lib,這是一個用於訓練和評估解耦表示的新庫。由於複製我們的結果需要大量的計算工作,我們還發布了超過10000個預訓練的模型,可以作為未來研究的基線。
  • 我們分析實驗結果,並挑戰了無監督解耦學習中的一些共識:

(i)雖然所有考慮的方法都證明有效確保聚合後驗的各個維度不相關,我們觀察到的表示維度是相關的

(ii)由於random seeds和超參數似乎比模型選擇更重要,我們沒有發現任何證據表明所考慮的模型可以用於以無監督的方式可靠地學習解耦表示。此外,如果不訪問ground-truth標籤,即使允許跨數據集傳輸良好的超參數值,似乎也無法識別良好訓練的模型。

(iii)對於所考慮的模型和數據集,我們無法驗證以下假設,即解耦對於下游任務是有用的,例如通過降低學習的樣本複雜性。

  • 基於這些實證證據,我們提出了進一步研究的三個關鍵領域:

(i)歸納偏置的作用以及隱性和顯性監督應該明確:無監督模型選擇仍然是一個關鍵問題。

(ii) 應證明強制執行學習表示的特定解耦概念的具體實際好處。

(iii) 實驗應在不同難度的數據集上建立可重複的實驗設置。

最佳論文:稀疏高斯過程回歸變分的收斂速度

第二篇最佳論文來自英國劍橋大學。

論文標題:《稀疏高斯過程回歸變分的收斂速度》

Rates of Convergence for Sparse Variational Gaussian Process Regression

作者:DavidR. Burt1,Carl E. Rasmussen1,Mark van der Wilk2

ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎

ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎

arXiv地址:

https://arxiv.org/pdf/1903.03571.pdf

論文摘要

自從許多研究人提出了對高斯過程後驗的變分近似法後,避免了數據集大小為N時 O(N3) 的縮放。它們將計算成本降低到O(NM2),其中M≤N是誘導變數的數量。雖然N的計算成本似乎是線性的,但演算法的真正複雜性取決於M如何增加以確保一定的近似質量

研究人員通過描述KL向後發散的上界行為來解決這個問題。證明了在高概率下,M的增長速度比N慢, KL的發散度可以任意地減小。

一個特別有趣的例子是,對於具有D維度的正態分布輸入的回歸,使用流行的 Squared Exponential 核M就足夠了。 研究結果表明,隨著數據集的增長,高斯過程後驗可以真正近似地逼近,並為如何在連續學習場景中增加M提供了具體的規則。

總結

研究人員證明了稀疏GP回歸變分近似到後驗變分近似的KL發散的界限,該界限僅依賴於先驗核的協方差運算元的特徵值的衰減

這些邊界證明了直觀的結果,平滑的核、訓練數據集中在一個小區域,允許高質量、非常稀疏的近似。這些邊界證明了用M≤N進行真正稀疏的非參數推理仍然可以提供可靠的邊際似然估計和點後驗估計。

對非共軛概率模型的擴展,是未來研究的一個有前景的方向。

DeepMind、牛津、MIT等7篇最佳論文提名

除了最佳論文外,本次大會還公布了7篇獲得榮譽獎的論文。

ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎

Analogies Explained: Towards Understanding Word Embeddings

作者:CarlAllen1,Timothy Hospedales1 ,來自愛丁堡大學。

論文地址:https://arxiv.org/pdf/1901.09813.pdf

SATNet: Bridging deep learning and logical reasoning using a differentiable satisfiability solver

作者:Po-WeiWang1,Priya L. Donti1 2,Bryan Wilder3,Zico Kolter1 4,分別來自卡耐基梅隆大學、南加州大學、Bosch Center for Artificial Intelligence。

論文地址:https://arxiv.org/pdf/1905.12149.pdf

A Tail-Index Analysis of Stochastic Gradient Noise in Deep Neural Networks

作者:Umut ?im?ekli?,L, event Sagun?, Mert Gürbüzbalaban?,分別來自巴黎薩克雷大學、洛桑埃爾科爾理工大學、羅格斯大學。

論文地址:https://arxiv.org/pdf/1901.06053.pd

Towards A Unified Analysis of Random Fourier Features

作者:Zhu Li,Jean-Fran?ois Ton,Dino Oglic,Dino Sejdinovic,分別來自牛津大學、倫敦國王學院。

論文地址:https://arxiv.org/pdf/1806.09178.pdf

Amortized Monte Carlo Integration

作者:Adam Golinski、Yee Whye Teh、Frank Wood、Tom Rainforth,分別來自牛津大學和英屬哥倫比亞大學。

論文地址:http://www.gatsby.ucl.ac.uk/~balaji/udl-camera-ready/UDL-12.pdf

Social Influence as Intrinsic Motivation for Multi-Agent Deep Reinforcement Learning

作者:Natasha Jaques, Angeliki Lazaridou, Edward Hughes, Caglar Gulcehre, Pedro A. Ortega, DJ Strouse, Joel Z. Leibo, Nando de Freitas,分別來自MIT媒體實驗室、DeepMind和普林斯頓大學。

論文地址:https://arxiv.org/pdf/1810.08647.pdf

Stochastic Beams and Where to Find Them: The Gumbel-Top-k Trick for Sampling Sequences Without Replacement

作者:Wouter Kool, Herke van Hoof, Max Welling,分別來自荷蘭阿姆斯特丹大學,荷蘭ORTEC和加拿大高等研究所(CIFAR)。

論文地址:https://arxiv.org/pdf/1903.06059.pdf

ICML 2019:谷歌成為最大贏家,清北、南大港中文榜上有名

本次大會還統計了收錄論文的領域分布情況:

ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎

提交論文最多的子領域分別是:深度學習、通用機器學習、強化學習、優化等。

而早在上個月,Reddit網友就發表了他和他的公司對本次ICML 2019論文錄取情況的統計結果。

ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎

地址:

https://www.reddit.com/r/MachineLearning/comments/bn82ze/n_icml_2019_accepted_paper_stats/

今年,在所有錄取的論文中,谷歌無疑成為了最大贏家

ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎

錄取論文總數排名(按研究所)

上表顯示了以研究所(包括產業界和學術界)為單位,錄取論文總數的排名。這項統計中至少有一位作者隸屬於某研究所,因此一篇論文可以出現多次且隸屬多個研究所。

排名地址:

https://i.redd.it/wdbw91yheix21.png

其中,藍色代表論文總數,綠色和紅色分別代表第一作者和通訊作者參與錄取論文的論文數量。並且,附屬機構是手動合併到研究所的,例如Google Inc.、Google AI、Google UK都將映射到Google。

可以看到谷歌錄取論文的數量遠超其它研究所,位列第一;緊隨其後的是MIT、伯克利、谷歌大腦、斯坦福、卡內基梅隆以及微軟。

作者還分別根據學界和產業界進行了統計Top 50排名。

ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎

排名統計可視化地址:

https://i.redd.it/37hxhsmfzix21.png

在學界排名中,MIT、加州伯克利分校、斯坦福和卡內基梅隆奪冠前四,成為本屆錄取論文數的第一梯隊,且與第二梯隊拉開了一定差距。

國內上榜的院校包括清華大學、北京大學、南京大學、香港中文大學。

ICML 2019最佳論文出爐,超高數學難度!ETH、谷歌、劍橋分獲大獎

排名可視化地址:

https://i.redd.it/wa6kjzmhzix21.png

在企業研究所Top 50排名中,谷歌無疑成為最大贏家:谷歌、谷歌大腦和谷歌DeepMind分別取得第一、第二和第四的好成績。微軟、Facebook和IBM成績也較優異,位居第三、第五和第六。

而對於國內企業,騰訊(Tencent)成績較好,位居第八名。

此外,從本屆ICML 2019錄取論文情況來看,還可以得到如下統計:

  • 452篇論文(58.4%)純屬學術研究;
  • 60篇論文(7.8%)來自工業研究機構;
  • 262篇論文(33.9%)作者隸屬於學術界和工業界。

總結上述的統計,我們可以得到如下結果:

  • 77%的貢獻來自學術界;
  • 23%的貢獻來自產業界。

參考鏈接:

https://icml.cc/Conferences/2019/ScheduleMultitrack?event=5268

https://twitter.com/CambridgeMLG/status/1138481294965387264

https://www.reddit.com/r/MachineLearning/comments/bn82ze/n_icml_2019_accepted_paper_stats/

https://icml.cc/Conferences/2019/AcceptedPapersInitial

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

DARPA研發腦機交互頭盔,意念操控無人機無需植入電極
智能雲·芯世界,探索中國芯、雲十年大勢

TAG:新智元 |