一秒分類 20 億張圖片,光晶元走向人工智慧
來源:內容由半導體行業觀察(ID:icbank)編譯自IEEE,謝謝。
模仿人腦工作的深度神經網路現在通常為計算機視覺、語音識別等提供支持。然而,它們越來越受到用於實現它們的硬體的限制。現在,科學家們已經在光子微晶元上開發了一種深度神經網路,可以在不到一納秒的時間內對圖像進行分類,這與最先進的電子設備中的時鐘的單個滴答時間大致相同。
在人工神經網路中,被稱為「神經元」的組件被輸入數據併合作解決問題,例如識別人臉。神經網路反覆調整其神經元之間的聯繫,並查看由此產生的行為模式是否能更好地找到解決方案。隨著時間的推移,網路會發現哪些模式最適合計算結果。然後它採用這些作為默認值,模仿人腦中的學習過程。如果一個神經網路擁有多層神經元,它就被稱為「深度」。
儘管這些人工智慧系統越來越多地找到現實世界的應用程序,但鑒於運行它們的硬體,它們面臨著許多重大挑戰。首先,它們通常使用基於數字時鐘的平台(例如圖形處理單元(GPU))來實現,這將它們的計算速度限制在時鐘頻率上——對於大多數最先進的 GPU 來說,它不到 3 GHz。其次,與可以計算和存儲數據的生物神經元不同,傳統電子設備將內存和處理單元分開。在這些組件之間來回穿梭數據會浪費時間和精力。
此外,原始視覺數據通常需要轉換為數字電子信號,耗時較長。此外,通常需要大內存單元來存儲圖像和視頻,從而引發潛在的隱私問題。
在一項新研究中,研究人員開發了一種光子深度神經網路,可以直接分析圖像,而無需時鐘、感測器或大內存模塊。它可以在不到 570 皮秒的時間內對圖像進行分類,這與最先進的微晶元中的單個時鐘周期相當。
「它每秒可以對近 20 億張圖像進行分類,」該研究的資深作者、費城賓夕法尼亞大學的電氣工程師Firooz Aflatouni說。「作為參考,傳統的視頻幀速率是每秒 24 到 120 幀。」
新設備標誌著第一個完全在集成光子設備上以可擴展方式實現的深度神經網路。整個晶元的大小只有 9.3 平方毫米。
感興趣的圖像被投影到 5×6 像素陣列上,並分為四個重疊的 3×4 像素子圖像。然後,光通道或波導將每個子圖像的像素路由到設備的九個神經元。
當微晶元接受訓練以將圖像識別為例如一個字母或另一個字母時,電控設備會調整每個神經元如何修改入射光信號的功率。通過分析圖像中的光線在穿過微晶元的神經元層後如何被修改,人們可以讀取微晶元的結果。
「通過傳播計算,計算髮生在波通過介質傳播時,可以以光速執行計算,」Aflatouni 說。
科學家們讓他們的微晶元識別手寫字母。在一組測試中,它必須將 216 個字母分類為「p」或「d」,而在另一組測試中,它必須將 432 個字母分類為「p」、「d」、「a」或「t」。" 該晶元的精度分別高於 93.8% 和 89.8%。相比之下,使用Keras庫在 Python 中實現的 190 個神經元的傳統深度神經網路在相同圖像上實現了 96% 的準確率。
研究人員現在正在嘗試使用這些設備對視頻和 3D 對象進行分類,並使用具有更多像素和神經元的更大晶元對更高解析度的圖像進行分類。此外,這項技術的應用「不僅限於圖像和視頻分類,」Aflatouni 說。「任何可以轉換為光域的信號,例如音頻和語音,都可以使用這項技術幾乎瞬間進行分類。」
★ 點擊文末【閱讀原文】,可查看本文原文鏈接!
*免責聲明:本文由作者原創。文章內容系作者個人觀點,半導體行業觀察轉載僅為了傳達一種不同的觀點,不代表半導體行業觀察對該觀點贊同或支持,如果有任何異議,歡迎聯繫半導體行業觀察。
今天是《半導體行業觀察》為您分享的第3063內容,歡迎關注。
★FPGA的未來發展猜想
★代工廠布陣第三代半導體
★群雄激戰數據中心
晶圓|集成電路|設備|汽車晶元|存儲|台積電|AI|封裝
原文鏈接!

