當前位置:
首頁 > 最新 > MIT新研發的晶元將神經網路功耗降低95%

MIT新研發的晶元將神經網路功耗降低95%

AiTechYun

編輯:Yining

近日,麻省理工學院(MIT)的工程師們設計了一種晶元,這種晶元能將神經網路計算的速度提高3到7倍,同時還能將耗電量降低94-95%。這大大減少了在晶元存儲器和處理器之間來回傳輸數據的需要,這可能使得我們可以在智能手機上運行神經網路,甚至也可將其嵌入到家用電器中。

「通用處理器模型在部分晶元中是一個內存,並且在晶元的另一部分是一個處理器。當你做這些計算時,你需要在它們中間反覆地移動數據。」麻省理工學院的電氣工程和計算機科學研究生Avishek Biswas說道。他還補充「由於這些機器學習演算法需要大量的計算,所以數據的反覆傳輸是能量消耗的主要部分。但是這些演算法的計算可以簡化為一個特定的運算,叫做點積。我們的方法是,我們能否在內存中實現這個點積功能,這樣是不是你就不需要來回傳輸這些數據了?」

神經網路由成千上萬個相互連接的人工神經元組成。每一個神經元都接收來自其下方的多個神經元的輸入,如果組合的輸入傳遞一個特定的閾值,那麼它就會將輸出信號傳送到上面的多個神經元上。神經元之間的連接強度是由一個權重決定的,而權重是在訓練過程中設定的。

這意味著,對於每個神經元,晶元都必須檢索特定連接的輸入數據,並從內存中獲取連接權重,將它們相乘,存儲結果,然後為每個輸入重複這個過程。這個過程需要大量的數據來移動,並且會消耗大量的能量。

麻省理工學院的這種晶元可以消除這種情況,取而代之的是用模擬電路在內存中並行計算所有的輸入。這大大減少了需要被推擠的數據量,從而節省了大量的能源。

這種方法需要二進位權重的連接,而不是一個值的範圍,但先前的理論工作認為這種方法不會顯著地影響精度,並且研究人員發現晶元的結果一般在2%到3%的傳統非二進位神經網路標準內的計算機上運行。

這並不是研究人員第一次在內存中創建晶元來減少神經網路的功耗,但這是第一次使用這種方法來運行基於圖像的人工智慧應用程序的強大的卷積神經網路。

IBM的人工智慧副總裁Dario Gil在一份聲明中說:「這一結果顯示了令人印象深刻的技術,用於與內存陣列的卷積運算。這肯定會為未來的物聯網中的圖像與視頻分類提供更複雜的卷積神經網路。」

然而,不僅僅是麻省理工學院的研究小組在研究這個問題。在智能手機、家用電器以及各種物聯網設備等設備上,人們渴望將人工智慧技術應用到智能手機上。

驍龍845

蘋果已經將其神經系統集成到iPhone X中,以支持其面部識別技術等功能。據傳聞,亞馬遜正在開發自己的定製人工智慧晶元,用於下一代Echo數字助手。

大型晶元公司也越來越傾向於支持先進的設備,比如機器學習,這迫使他們讓設備變得更加節能。今年早些時候,ARM發布了兩款新晶元:ARM Machine Learning處理器,目標是將人工智慧任務從翻譯轉換到面部識別,以及用於檢測圖像中人臉的ARM Object Detection處理器。

高通最新的移動晶元驍龍845,採用一個GPU並將其重點集中於人工智慧。該公司還發布了驍龍820E晶元,主要針對無人機、機器人和工業設備。

更進一步,IBM和英特爾正在開發一種神經形態晶元,其架構受到人類大腦及其能源效率的啟發。從理論上講,這可以讓IBM的TrueNorth和英特爾的Loihi運行強大的機器學習,而這只是傳統晶元的一小部分,儘管他們在這一階段仍處於高度的實驗階段。

要讓這些晶元運行像雲服務中發現的那樣強大的神經網路而不會過快地消耗電池,這將是一個巨大的挑戰。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 ATYUN訂閱號 的精彩文章:

微軟開發了一種AI,可以像人類一樣回答問題
解開uKit AI項目的幕後秘密:自動化網站重新設計

TAG:ATYUN訂閱號 |