當前位置:
首頁 > 最新 > 用DNN打破製造瓶頸 IBM稱還可將 AI 性能提升百倍

用DNN打破製造瓶頸 IBM稱還可將 AI 性能提升百倍

本文由騰訊數碼獨家發布

考慮到未來的 AI 需要極大的擴張人工智慧的計算規模,最近 IBM 公司的 AI 研究小組展開了新的研發項目,他們基於同樣精度的圖形處理單元(GPU)系統,向公眾演示了一項由大型模擬存儲器設備矩陣訓練而成的 DNN 深度神經網路技術,而作為 AI 研發項目中必要的硬體加速器,這同時也是 IBM 公司為其通向下個 AI 技術突破點的重要一步。

通過在硅中構建深度神經網路系統,AI 的計算性能將會大大突破GPU 的極限,在功耗節約百倍的同時也能讓 AI 的計算和學習速度提升百倍以上,而這項技術可以應用於智能手機上的高級定製化人工智慧來幫助用戶呈現實時信息,或者讓超級計算機的計算和功效節約性能提升上百倍。

IBM 表示,由於傳統的二進位現代計算機都有著與身俱來的精度限制,DNN深度神經網路相比傳統的 GPU或者其他電子加速器,無論在雲端還是在設備終端上,其數據處理和傳輸能力都有突破性的提升,AI 研發人員也發現,即使是在數字精度遠遠低於計算機程序需要的最低水平,DNN模擬技術也能很好的運作。

不過到目前為止,還沒有人能最終證明這種模擬技術能與當今運行在傳統數字硬體上的軟體一樣,實現的同樣的應用效果,那麼DNN 深度神經網路真的可以代替傳統方法,實現同樣的高精度嗎?如果精度能力總是達不到,那麼DNN即使表現出更快和更節能的優越性,但還是意義不大。

在 IBM 提交的研發論文中,他們描述了模擬非易失性存儲器(NVM)是如何在各種 AI 領域內有效加速「反向傳播」演算法的,這些存儲器允許通過這些演算法使用「乘法累加」運算在模擬數據域中實現並行化,他們代替了由大量電流彙集來增加電子數字集合的傳統方式,而是用一個個小電流通過電阻器進入線圈,然後將許多這樣的線圈連接在一起然後讓電流上升實現同樣的效果。

這使得它們可以同時執行多種運算,而不需要每個運算完成後才進行下一個,更不需要在數字存儲晶元和處理晶元之間的長途旅行中傳輸大量的數字數據,而直接在模擬存儲器晶元內部完成所有計算。不過由於目前模擬存儲器器件固有的各種缺陷,先前直接在真實NVM器件大陣列上執行DNN訓練還不能達到達到與傳統軟體訓練網路匹配的相同精度。

不過通過將相變存儲器(PCM)器件中的長期存儲、傳統互補金屬氧化物半導體(CMOS)電容器的近線性更新和消除器件到器件可變性的新技術相結合,我們也可以優化這些缺陷,最終讓DNN實現和軟體系統等效的精準性,並提供更快處理速度和更低的功耗,而IBM 的這些實驗還使用了硬體和軟體的混合作用,結合易於精確建模的系統元件(如CMOS器件)的軟體模擬系統以及PCM設備的全硬體共同實現。

鑒於這些令人鼓舞的結果,IBM 也已經開始探索原型硬體加速器晶元的設計工作,並納入其前沿研究項目的一部分,而對用來進行訓練完全連接層的NVM的晶元,他們也已經開始在計算能量效率(28065 GOP/SEC/W)和單區域吞吐量(3.6 TOP/SEC/MM2)兩個方面初步估計其性能潛力,最終的測試結果發現這些數值已經超過了當今GPU規格的兩個數量級。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 科技酷玩探索家 的精彩文章:

性能逆天 作為資深遊戲玩家怎能沒有一台外星人17 R5遊戲本

TAG:科技酷玩探索家 |