當前位置:
首頁 > 新聞 > 【Facebook過年發「AI大紅包」】張量理解庫,分分鐘生成ML代碼

【Facebook過年發「AI大紅包」】張量理解庫,分分鐘生成ML代碼

【Facebook過年發「AI大紅包」】張量理解庫,分分鐘生成ML代碼

來源:research.fb.com

編譯:文強

【新智元導讀】Facebook今天宣布發布Tensor Comprehensions,能夠自動將數學符號快速轉換成高性能機器學習代碼,將原本幾天乃至幾周的過程縮短為幾分鐘,大幅提高生產力。

【Facebook過年發「AI大紅包」】張量理解庫,分分鐘生成ML代碼

Facebook AI Research(FAIR)今天宣布發布Tensor Comprehensions,這是一個C++庫和數學語言,旨在幫助彌合研究人員和工程師在從事機器學習任務時,在溝通上的差距;研究人員習慣使用數學運算,而工程師則專註在不同的硬體後端運行大規模ML模型的實際需求。

相比其他庫,Tensor Comprehensions 的主要不同是對Just-In-Time編譯有獨特的研究,能夠自動按需生成機器學習社區需要的高性能代碼。

只需幾分鐘生成高性能CPU/GPU代碼,生產力實現數量級提高

要創建新的高性能機器學習(ML)層,典型的工作流程一般包含兩個階段,時間往往需要好幾天乃至數周:

1、首先,一位研究人員在numpy級別的抽象中編寫了一個新的層,並將其與像PyTorch這樣的深度學習庫鏈接起來,然後在小規模實驗中對其進行測試。想法得到驗證後,相關的代碼,性能需要加快一個數量級才能運行大規模實驗。

2、接下來,一位工程師為GPU和CPU編寫高效代碼,而這又需要:

  1. 這名工程師需要是高性能計算的專家,這方面人才數量有限

  2. 這名工程師需要獲取上下文,制定策略,編寫和調試代碼

  3. 將代碼移到後端需要進行一些枯燥但必須完成的任務,例如反覆進行參數檢查和添加Boilerplate集成代碼

因此,在過去的幾年中,深度學習社區在很大程度上都依靠CuBLAS,MKL和CuDNN等高性能庫來獲得GPU和CPU上的高性能代碼。不使用這些庫提供的原語來進行試驗,需要極高的工程水平,這對不少研究人員都構成了很大的挑戰。

【Facebook過年發「AI大紅包」】張量理解庫,分分鐘生成ML代碼

如果有套件能夠將上述過程從幾周縮短為幾分鐘,我們預期,將這樣一個套件開源將具有重大實用價值。有了Tensor Comprehensions,我們的願景是讓研究人員用數學符號寫出他們的想法,這個符號自動被我們的系統編譯和調整,結果就是具有良好性能的專用代碼。

在這次發布的版本中,我們將提供:

  • 表達一系列不同機器學習概念的數學符號

  • 用於這一數學符號的基於Halide IR的C++前端

  • 基於Integer Set Library(ISL)的多面體Just-in-Time(JIT)編譯器

  • 基於進化搜索的多線程、多GPU自動調節器

使用高級語法編寫網路層,無需明確如何運行

最近在高性能圖像處理領域很受歡迎的一門語言是Halide。Halide使用類似的高級函數語法來描述圖像處理流水線,然後在單獨的代碼塊中,明確將其調度(schedule)到硬體上,詳細指定運算如何平鋪、矢量化、並行和融合。這對於擁有架構專業知識的人來說,是一種非常高效的語言,但對於大多數機器學習從業者卻很難使用。目前有很多研究積極關注Halide的自動調度(Automatic scheduling),但對於在GPU上運行的ML代碼,還沒有很好的解決方案。

【Facebook過年發「AI大紅包」】張量理解庫,分分鐘生成ML代碼

Tensor Comprehensions使用Halide編譯器作為庫。在Halide的中間表示(IR)和分析工具的基礎上,將其與多面體編譯技術相結合,使用者可以用類似的高級語法編寫網路層,而無需明確它將如何運行。我們還成功使語言更加簡潔,無需指定減法(reduction)的循環邊界。

【Facebook過年發「AI大紅包」】張量理解庫,分分鐘生成ML代碼

Tensor Comprehensions使用Halide和Polyhedral Compilation 技術,自動合成CUDA內核。這種轉換會為通用運算元融合、快速本地內存、快速減法和JIT類型特化進行優化。由於沒有或者沒有去優化內存管理,我們的流程可以輕鬆高效地集成到任何ML框架和任何允許調用C++函數的語言中。

【Facebook過年發「AI大紅包」】張量理解庫,分分鐘生成ML代碼

與傳統的編譯器技術和庫的方法相反,多面編譯(Polyhedral Compilation)讓Tensor Comprehensions為每個新網路按需調度單個張量元素的計算。

在CUDA層面,Tensor Comprehensions結合了affine loop transformations,fusion/fission和自動並行處理,同時確保數據在存儲器層次結構中正確移動。

圖中的數字表示最初計算張量元素的順序,箭頭表示它們之間的依賴關係。在這個例子中,數字旋轉對應loop interchange,深度運算元融合就發生在這個過程中。


性能媲美乃至超越Caffe2+cuBLAS

為了推動搜索過程,我們還提供了一個集成的多線程、多GPU自動調諧庫(autotuning library),它使用Evolutionary Search來生成和評估數千種實現方案,並從中選擇性能最佳的方案。只需調用Tensor Comprehension的tune函數,你就能實時地看著性能提高,到你滿意時停止即可。最好的策略是通過protobuf序列化,立即就可重用,或在離線情況下。

【Facebook過年發「AI大紅包」】張量理解庫,分分鐘生成ML代碼

在性能方面,儘管我們還有很多需要改進的地方,但在某些情況下,Tensor Comprehensions 已經可以媲美甚至超越當前整合了手動調整庫的ML框架。這主要通過將代碼生成策略適應特定問題大小的能力來實現的。下面的條形圖展示了將Tensor Comprehensions自動生成的內核與Caffe2和ATen(使用CuDNN)相比較時的結果。更多信息,請參閱論文(見文末鏈接)。

【Facebook過年發「AI大紅包」】張量理解庫,分分鐘生成ML代碼

隨著我們擴大至更多硬體後端,Tensor Comprehensions將補充硬體製造商(如NVIDIA和Intel)編寫的速度很快的庫,並將與CUDNN,MKL或NNPack等庫一起使用。


未來計劃

這次發布的版本將讓研究人員和程序員用與他們在論文中使用的數學語言來編寫網路層,並簡明地傳達他們程序的意圖。同時,研究人員還能在幾分鐘之內將他們的數學符號轉化成能夠快速實施的代碼。隨著工具鏈的不斷增長,我們預計可用性和性能將會增加,並使整個社區受益。

我們將在稍後發布PyTorch的Tensor Comprehensions集成。

我們感謝與框架團隊的頻繁交流和反饋,並期待著將這一令人興奮的新技術帶入你最喜愛的ML框架。

FAIR致力於開放科學並與機器學習社區合作,進一步推動AI研究。Tensor Comprehensions(已經在Apache 2.0協議下發布)已經是Facebook,Inria,蘇黎世聯邦理工學院和麻省理工學院的合作項目。目前工作還處於早期階段,我們很高興能夠儘早分享,並期望通過社區的反饋來改進它。

論文:https://arxiv.org/abs/1802.04730



【Facebook過年發「AI大紅包」】張量理解庫,分分鐘生成ML代碼

【2018新智元AI技術峰會重磅開啟,599元早鳥票搶票中!

2017年,作為人工智慧領域最具影響力的產業服務平台——新智元成功舉辦了「新智元開源·生態技術峰會」和「2017AIWORLD 世界人工智慧大會」。憑藉超高活動人氣及行業影響力,獲得2017年度活動行「年度最具影響力主辦方」獎項。

其中「2017 AI WORLD 世界人工智慧大會」創人工智慧領域活動先河,參會人次超5000;開場視頻在騰訊視頻點播量超100萬;新華網圖文直播超1200萬。

2018年的3月29日,新智元再匯AI之力,共築產業躍遷之路。在北京舉辦2018年中國AI開年盛典——2018新智元AI技術峰會,本次峰會以「產業·躍遷」為主題,特邀諾貝爾獎評委、德國人工智慧研究中心創始人兼CEO Wolfgang Wahlster 親臨現場,與谷歌、微軟、亞馬遜、BAT、科大訊飛、京東和華為等企業重量級嘉賓,共同研討技術變革,助力領域融合發展。

新智元誠摯邀請關心人工智慧行業發展的各界人士 3 月 29 日親臨峰會現場,共同參與這一跨領域的思維碰撞。

關於大會更多信息,請關注新智元微信公眾號或訪問活動行頁面:http://www.huodongxing.com/event/8426451122400

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新智元 的精彩文章:

「周志華闢謠「出走南大」」大牛下海熱,AI學界已千瘡百孔
智能養豬成千萬級別飼養規模殺手鐧

TAG:新智元 |