當前位置:
首頁 > 科技 > 精選機器學習開源項目Top10

精選機器學習開源項目Top10

作者 | Mybridge

譯者 | linstancy

編輯 | Jane

出品 | AI科技大本營

【導讀】過去一個月里,我們對近 250 個機器學習開源項目進行了排名,並挑選出熱度前 10 的項目。這份清單的平均 github star 數量高達919,涵蓋了包括 Auto Keras,Glow,Video to Video,機器翻譯,舞蹈生成器,3D 足球視頻,垃圾郵件過濾,語音識別,圖像生成,人臉處理等主題,希望你能從中找到一個你所感興趣的項目深入探究。

1、Autokeras

AutoKeras是一款用於自動機器學習 (AutoML) 的開源軟體庫,由 Texas A&M大學的 DATA lab 和社區貢獻者共同開發。AutoML 的最終目標是為那些僅具備有限數據科學或機器學習背景的領域專家提供易於訪問、友好的深度學習工具。而 AutoKeras 則提供深度學習模型架構和超參數自動搜索等功能。

Github 鏈接:

https://github.com/jhfjhfj1/autokeras?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more

2、Glow

Glow 是由 OpenAI 研發的一種使用 1×1 可逆卷積的生成對抗模型。它擴展了之前關於可逆生成對抗模型的工作,並進一步簡化了體系結構。Glow 能夠生成逼真的高解析度圖像,支持高效的採樣過程,還能探索用於操縱數據屬性的特徵。這裡提供項目主頁和 github 鏈接,包括模型代碼和在線可視化工具,幫助研究者探索並構建 Glow 模型。

項目主頁:

https://blog.openai.com/glow/

Github 鏈接:

https://github.com/openai/glow?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more

▌3、Vid2Vid

Vid2Vid 是由 NVIDIA 研發的一種新穎視頻合成方法。基於生成對抗框架,通過精心設計的生成器和判別器網路結構,再加上一種時空對抗損失函數 (spatial-temporal adversarial objective),我們可以在多種輸入格式上 (如分割掩碼、草圖和姿態) 實現高解析度、逼真的、時序相關的視頻效果。Vid2Vid 框架能夠顯著地提升視頻合成的效果,還能用於未來的視頻預測任務。

Github 鏈接:

https://github.com/NVIDIA/vid2vid?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more

4、UnsupervisedMT

UnsupervisedMT 是由 Facebook Research 研發的一種無監督的神經機器翻譯模型,它能夠支持:

三種機器翻譯架構,包括 seq2seq,biLSTM+attention 以及 Transformer 框架。

能夠跨模型/語言共享任意數量的參數

去噪自動編碼器訓練

並行數據訓練

反向並行數據訓練

即時多線程地生成反向並行數據

Github 鏈接:

https://github.com/facebookresearch/UnsupervisedMT?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more

5、DanceNet

DanceNet 是使用自編碼器、LSTM 和混合密集網路結構設計的一種舞蹈生成器模型,它以舞蹈視頻為訓練數據,通過訓練學習來生成新的舞蹈視頻。

Github 鏈接:

https://github.com/jsn5/dancenet?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more

6、Soccerontable

Soccerontable 是由華盛頓大學研發的一種能將單目的足球比賽視頻進行3D 重建的系統,玩家和場地情景能夠通過 AR/VR 設備互動式地呈現。這種系統通過對每名玩家深度圖的估計,使用 CNN 來訓練從足球視頻遊戲中所提取的玩家數據並進行 3D 重建過程。

項目主頁:

http://grail.cs.washington.edu/projects/soccer/

Github 鏈接:

https://github.com/krematas/soccerontable?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more

7、Artificial-Adversary

Artificial-adversary 是由 Airbnb 研發的一種能夠生成對抗文本的項目。你可以使用這些方法生成文本樣本,並在機器學習模型測試時模擬這些類型的攻擊。它的主要原理是:以離線的方式將你的機器學習模型暴露在這些攻擊之下,當在線訓練模型過程中在此遇到這些類型的攻擊時,模型能夠更好地防禦這些攻擊。此外,與其他的對抗攻擊項目不同的是,這種對抗攻擊方法將模型視為黑盒子,且僅使用不依賴於模型自身知識的通用攻擊方式。

Github 鏈接:

https://github.com/airbnb/artificial-adversary?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more

8、Stt-benchmark

Stt-benchmark 是由 Picovoice 研發的一款語音到文本的轉換框架基準。通過深度學習技術,改進先前語音-文本引擎的不足,並將這些優化遷移到低 CPU、低內存佔用的物聯網平台。此外,這項技術對基於雲端的引擎更有利。

Github 鏈接:

https://github.com/Picovoice/stt-benchmark?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more

9、Sg2im

Sg2im 是 Google 團隊研發的一種從場景圖實現圖像生成的圖卷積神經網路框架。這是一種端到端的神經網路模型,以自然場景圖為輸入,沿著圖卷積網路邊緣傳遞信息以計算所有目標的嵌入對象並用於預測目標的邊界框及分割掩碼,最終組成以形成粗粒度的場景布局;通過級聯的細化網路,以逐漸增大的空間尺度生成輸出圖像,並用一對判別器網路進行訓練以確保輸出圖像的逼真性。

Github 鏈接:

https://github.com/google/sg2im?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more

▌10、GANimation

GANimation 是一種基於動作單元 (Action Units,AU) 的新型條件 GAN 框架,用於在連續流形中根據面部動作來定義人臉表達。它能夠控制每個 AU 的激活幅度,並允許自由組合。通過完全無監督的策略訓練模型,只激活那些被 AU 注釋過的圖像,並通過注意力機制最終得到強魯棒性的模型。

項目主頁:

http://www.albertpumarola.com/research/GANimation/index.html

Github 鏈接:

https://github.com/albertpumarola/GANimation?utm_source=mybridge&utm_medium=blog&utm_campaign=read_more

https://medium.mybridge.co/machine-learning-open-source-of-the-month-v-aug-2018-ae85e7302ea5

AI科技大本營在線公開課第12期

知識圖譜專場


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 AI科技大本營 的精彩文章:

解析深度神經網路背後的數學原理!
10分鐘快速入門Python函數式編程

TAG:AI科技大本營 |