如何減少R-CNN的計算數據量和內存要求?
這裡是 AI 研習社,我們的問答版塊已經正式推出了!歡迎大家來多多交流~
https://club.leiphone.com/page/question
社長為你推薦來自 AI 研習社問答社區的精華問答。如有你也有問題,歡迎進社區提問。
話不多說,直接上題
問:如何減少R-CNN的計算數據量和內存要求?
需求是根據時序的圖片,預測下一張圖片;圖片是灰度圖,大小是500x500;每張圖片里有的像素有值,有的像素是無效值(設置為255),要求預測結果的有效值誤差最小。
目前模型是CNN+LSTM;還不清楚其他哪些模型可用。
這樣的計算,輸入層和輸出層的維度都很大,會導致計算量和對內存的要求都很高。
假如先卷積再輸出到500x500的全連接輸出層(包含RNN的數據轉換處理),這樣做可能會有精度損失。
另外損失函數有沒有辦法設計為只計算有效值,以減少計算量。
請問還有什麼辦法能減少計算量和內存要求?內存最好能控制在單機16G或32G以內。
來自社友的回答
萊特?哈靈頓:
你說的是不是用CNN編碼,將編碼放到具有記憶性的LSTM裡邊解碼,從而生成特徵圖向量來預測下一張圖片(抱歉我不太懂這塊,所以生成什麼我也不太清楚),前面CNN的作用無非就是將原圖像的信息編碼到輸出的向量或者矩陣中去,要是減少計算數據量的話,我想你看看attention機制相關的論文會不會有一些幫助?R-CNN應該算是hard attention,再減少的話,可不可以將這個hard attention生成的向量,通過soft attention計算出各個向量的權重,加權求和,V~_t=∑α_i,t × v_i
我的建議是這個,不知道理解的對不對,也建議你去看看attention機制相關論文,還有bottom-up and top-down這個。
棚哥 :
訓練數據放到SSD中,在訓練的同時,從磁碟中載入下一次的數據。
巴特萊?芬克:
它的時序圖有多大?就是總的數據集,然後每次輸入多少?
有技術問題需要求助?


※基於 Keras 對深度學習模型進行微調的全面指南 Part 2
※聽小米講人工智慧,「小米之夜」重磅來襲!
TAG:AI研習社 |