一大波人工智慧晶元將在2018上市(下)
行業第一次致力於軟體融合。
在早期的瘋狂和分散之中,即使是軟體融合的努力也是分散的。百度的人工智慧研究團隊進行了一項調查,發現了11項措施,彌補用於管理神經網路的競爭軟體框架之間的差距。
最有希望的是開放神經網路交換(ONNX),這是一個由Facebook和微軟開始的開源項目,最近由亞馬遜加入。該小組在12月份發布了ONNX格式的第一版。它旨在將用十幾個競爭軟體框架中的任何一個創建的神經網路模型轉換成圖形表示。
晶元製造商可以在結果圖上定位他們的硬體。這對於那些不能編寫獨立軟體來支持競爭模型框架的創業公司來說是個好消息,例如Amazon的MxNet,Google的TensorFlow,Facebook的Caffe2以及微軟的CNTK。
由30多家主要晶元供應商組成的團隊於12月20日發布了他們的首選選項 - 神經網路交換格式(Neural Network Exchange Format,簡稱NNEF)。NNEF旨在為晶元製造商提供創建自己的內部格式的替代方案,就像英特爾在Nervana Graph和Nvidia所做的那樣與TensorRT。
在百度找到的其他格式的大寫字母名稱縮寫中,有ISAAC,NNVM,Poplar和XLA。百度矽谷人工智慧實驗室高級研究員格雷格·迪莫斯(Greg Diamos)表示:「現在知道是否會出現一個成功的實施可能還為時過早,但是我們正在走上一條更好的路,其中一條最終可能會勝出。」
圖文: 在人工智慧框架中,亞馬遜聲稱其MxNet框架和新興的Gluon API提供了最好的效率。 (來源:亞馬遜)
另外,谷歌已經開始使用軟體來自動化精簡DNN模型的過程,以便他們可以運行從智能手機到物聯網(IoT)節點的所有事情。 如果成功的話,可以將50Mbyte的模型降低到500K位元組。
谷歌還在探索如何在手機上進行有限的模型培訓,方法是根據當天收集的數據調整模型的頂層或者在夜間運行的一個流程。 像SqueezeNet和MobileNet這樣的行業工作也類似地展示了更簡單的成像模型的路徑。
負責Google TensorFlow Lite工作的Pete Warden表示:「我們看到了大量使用機器學習的人們在各種各樣的產品中大量湧現。 「讓每次運算的能耗降下來這件事,讓我每天工作到深夜。」
當專家細看AI的未來時,他們看到了一些有趣的可能。
今天我們使用基於手動調整模型的監督式學習。谷歌的守望者(Warden)是在不久的將來出現半監督方法的研究人員之一,手機等客戶端設備自己處理一些學習。最終目標是無監督的學習 - 計算機教育它們自己,而不再需要建造它們的工程師的編程幫助。
在這條路上,研究人員正在設法自動標記數據,這些數據來自手機或物聯網(IoT)節點等設備。
「谷歌說,現在我們需要大量的計算,在這個過度階段,一旦事情被自動標記,你只需要索引新的增量內容,這更像是人類如何處理數據,」Janet George,西部數據的科學家說。
無監督學習打開了加速機器智能時代的大門,有些人認為這是數字化的必殺技。另一些人則擔心技術可能會在沒有人為干預的情況下以災難性的方式失控。 Google公司TPU項目負責人Norm Jouppi說:「這讓我感到害怕。
同時,從事半導體工作的學者對未來的AI晶元有自己的長遠展望。
英特爾,Graphcore和Nvidia「已經在製造全標線晶元,下一步就是三維技術」,Patterson說。 「當摩爾定律如火如荼時,由於擔心可靠性和成本問題,人們會在看到複雜的封裝技術之前就臨陣退縮了。現在摩爾定律正在結束,我們將看到很多封裝方面的實驗。「
這裡的最終遊戲是創造出新型的晶體管,可以在邏輯和存儲器層上堆疊。
Notre Dame電氣工程教授蘇曼·達塔(Suman Datta)看好負電容鐵電晶體管技術的晶體管。他在最近召開的所謂的單體三維(3-D)結構會議上展望了該領域的前景。這樣的設計應用和先進的3-D NAND快閃記憶體已經採用了on-die晶元堆棧技術。
來自伯克利,麻省理工學院和斯坦福大學的團隊將在二月份的國際固態電路會議上展示一個類似的前沿技術。晶元(下圖)將電阻RAM(ReRAM)結構堆疊在由碳納米管製成的邏輯上的碳納米管。
伯克利,麻省理工學院和斯坦福大學的研究人員將在ISSCC上報告一種使用碳納米管,ReRAM和圖案作為計算元素的新型加速器。 (來源:加州大學伯克利分校)
從DNN獲得靈感,該設備被編程為近似模式,而不是計算機迄今使用的確定性數字。 伯克利教授揚·拉巴伊(Jan Rabaey)說,這個所謂的高維計算使用了幾萬維的向量作為計算元素,伯克利教授為本文做出了貢獻,並且是英特爾AI顧問委員會成員。
Rabaey說,這樣的晶元可以從例子中學習,並且比傳統系統需要的操作要少得多。一塊測試晶元將很快問世,它使用振蕩器陣列,作為與相關存儲器陣列中的採用了ReRAM單元的模擬邏輯。
Rabaey在IEEE人工智慧研討會上表示:「我夢想的引擎,是可以隨身攜帶,現場為我提供指導......我的目標是推動AI運行在小於100毫伏的運行。 我們需要重新思考我們如何做計算。 我們正在從基於演算法的系統轉向基於數據的系統。」
(全文完)
作者: Rick Merritt, EETimes矽谷主編
編譯:Mike Zhang


TAG:EET電子工程專輯 |