當前位置:
首頁 > 最新 > 5種將為IoT帶來深遠影響的機器學習趨勢

5種將為IoT帶來深遠影響的機器學習趨勢

來源:engineering.com

作者:Shawn Wasserman

物聯網智庫 編譯

轉載請註明來源和出處

------【導讀】------

5種機器學習的趨勢將為IoT領域帶來極大的影響,IoT與機器學習的結合將創造嶄新機會。

物聯網IoT雖然提供了一種全新的方式用於收集數據、追蹤產品和分析數據,但是在IBM的一份報告中顯示,IoT收集的數據中有90%並沒有被有效利用,成為數據「死海」。

幸運的是,與IoT同時發展的機器學習等新興技術方興未艾,有望改變數據的這一現狀,將其變為有效信息,服務於IoT生態系統。通過將IoT採集到的大數據匯總到機器學習演算法中,工程師可以在開發周期、生產操作、產品製造等方面實現明顯提升。

德勤在加拿大的研究部主管Duncan Stewart認為,有5種機器學習的趨勢將為IoT領域帶來極大的影響,IoT與機器學習的結合將創造嶄新機會。

1. 邊緣側機器學習正在興起

圖:Apple A11 SoC具有內置的神經網路,將機器學習功能載入於智能手機

機器學習晶元的低功耗和邊緣化等趨勢,必將影響IoT領域。Stewart指出,2018年即將發布的大多數旗艦手機,都將包含內置神經網路功能的晶元。

雖然這些晶元不會像它們基於雲端應用的「兄弟姐妹」那樣功能強大,但完成基礎性的機器學習任務仍可輕鬆勝任。

在IoT世界中,一個新的概念越來越流行——邊緣智能。邊緣智能指物聯網的每個邊緣設備都具備處理數據的能力,而不是簡單將數據儲存在雲中。IoT將深度神經網路部署到邊緣設備上,以減少帶寬限制,消除網路延遲的影響。

「隨著智能手機中AI技術的普及,它有望在幾年之內移植到IoT領域,」Stewart說。「我們已經看到高通推出了一些智能機器學習晶元,並在智能路由器、防火牆、無人機和物聯網設備中產生了不錯的應用效果。」

當然,機器學習晶元引入物聯網設備的最大障礙將是晶元的價格、功耗和尺寸。關於價格方面,Stewart認為雖然在雲端完成機器學習的成本正在日益降低,但是將機器學習晶元添加到物聯網設備上,無疑將會花費更少的成本,而且與雲端的開銷不可同日而語。

Stewart指出,這意味著當工程師們使用機載了機器學習功能的晶元設計物聯網設備時,它在成本可控的同時還可滿足時間低延遲等至關重要的功能。「我們以無人機舉例,電網監測無人機在電力線附近飛行,」Stewart說,「這些無人機需要實時看清路線,並毫秒內做出響應。在這種場景下,將機器學習晶元添加到無人機上將是一個非常正確的產品決策。」

至於功耗和尺寸問題,很多公司正在持續研究並取得了不錯的進展,以便使機器學習晶元更加適合IoT應用需求。

2. 數據科學家將更多精力投入IoT本身

數據科學家現在可以更加專註於IoT應用本身,用更多時間傾聽和解決業務問題,而不必被繁雜的數據處理耗費過多精力。自動化的數據清理軟體將會協助數據科學家們完成繁瑣和枯燥的相關數據清洗工作。

Stewart認為另一種機器學習趨勢也將影響到物聯網市場,那就是許多繁瑣的數據任務將會經由軟體自動完成,從而釋放數據科學家的大量精力。

諸如清理被採集到的各種數據、消除微不足道的錯誤和拋棄無效的垃圾數據,這些任務往往構成了數據科學家的日常工作。它們的特徵非常明顯,重複、耗時,而且容易出錯,具備交給程序自動處理的可能性。

「80%的數據清洗工作可以被自動化,」Stewart說,「這並不意味著減少對於數據科學家的需求,相反,數據科學家不必在重複的工作中浪費時間,從而將精力專註於IoT應用本身,創造進一步提升價值的成果。」

「將機器學習引入到物聯網中的局限在於,這些數據科學家的大部分時間被大量的瑣碎工作吞噬,難以進入IoT的『腹地』。」Stewart補充說,「但是隨著大量的重複工作被自動化的軟體完成,數據科學家將在IoT領域發揮更大作用。」

3. 合成數據讓IoT機器學習功能開發更為快速

IoT工程師們還應該掌握的另一個趨勢是合成數據,也稱為人造數據。由於合成數據的存在,對於機器學習演算法的數據需求已經被極大降低。

為了創建機器學習演算法,工程師需要大量的現有數據,他們往往先從IoT系統中持續採集數據構建資源庫。但是現在這一工作將會變得更加容易。

例如為了更好的完成分類識別任務,我們就需要給系統提供儘可能多的訓練圖像,如果我們手頭上擁有的圖像不多,就需要人工合成更多的數據。

Stewart解釋說,利用合成數據,工程師可以使用與真實數據高度相似的數據訓練機器學習演算法。「將合成數據與真實數據混合在一起,當數據量很少或者難以積累時,將會讓IoT領域的機器學習功能開發變得更加快速。」Stewart說。

這意味著工程師只需要構建合成數據,就可以啟動他們對於機器學習演算法的訓練,從而將相關成果迅速引入到物聯網系統。

4. 新型機器學習硬體節省更多成本

圖:Altera的Stratix IV FPGA已被用於數據處理應用

Stewart指出,現在一些新的機器學習晶元正在讓雲端的機器學習變得更加實惠。

以往雲端的機器學習由圖形處理單元(GPU)完成,畢竟相比於CPU的順序處理,GPU的並行處理能力更為適合機器學習。

然而,隨著現場可編程門陣列(FPGA)和專用集成電路(ASIC)的發展,它們越來越受到希望擴展機器學習能力的各類雲計算中心關注。雖然GPU仍是當前的機器學習市場的主流,但FPGA、ASIC正在機器學習領域崛起。Stewart認為FPGA與ASIC有助於降低機器學習應用的功耗,並提升系統的反應能力與靈活度,因此可望擴大機器學習的應用範圍,這些新型硬體工具將使機器學習變得更加容易也更實惠。

根據德勤的一份年度預測報告指出,2018年FPGA與ASIC將在機器學習領域佔據更重要的地位。到了2018年底,數據中心內約有25%以上的機器學習工作負載將是由FPGA與ASIC晶元負責處理,而目前這些工作多是交由GPU與CPU執行。

德勤預測,2018年企業數據中心將會使用到80萬片機器學習晶元,其中有60%為GPU,FPGA與ASIC則可分別攻下20%與10%的全球市場。到2022年,機器學習加速市場將可達到45億~91億美元的市值。

一些較早開始使用FPGA、ASIC晶元加速的用戶,主要是將它們運用機器學習的推論任務上,但不久之後,FPGA、ASIC晶元在模塊訓練工作上也將能有所發揮。

「對於使用機器演算法的金融機構來說,這些硬體成本的改進可能微不足道。」Stewart說,「但是對於物聯網應用來說,漸進式的硬體成本降低可能聚合成一個可觀的投資回報率提升。隨著雲端機器學習成本的降低,投資回報率每增加一個百分點,都會極大提升物聯網企業擁抱機器學習的熱情。」

隨著硬體成本的降低和機器學習ML功能開發的便利性提升,Stewart認為以前困擾物聯網行業的ML投資回報率問題終將被解決。

5. IoT不受機器學習黑盒限制的影響

現在的機器學習,尤其是深度學習中,有很多模型的使用都類似黑盒,因為你只能看到輸入和輸出,而大部分人對中間層並不能說出一個所以然來。

我們知道深度學習也分為監督學習和無監督學習。所謂監督學習,簡單來說你知道你想要的結果,比如分類,比如判斷對錯,你對輸出是有預見的;所謂無監督學習,是指你不知道你想要的是什麼,只是希望通過模型,從一堆數據中挖出某些有效信息來。對於無監督學習,這更像DNA的隨機組合,你不知道最終會得出什麼。

關於機器演算法局限性的討論不幸成為阻礙該技術在許多行業中發揮作用的一個問題。人類並不了解機器學習演算法的工作原理,我們只是知道如何構建它們。我們收集數據、處理數據、分析數據,在訓練周期中將數據遞歸的呈現給神經網路,然後實現我們認為可以進行推理的任何神經網路。

不僅深度學習Deep Learning解釋起來特別困難,其他機器學習技術也很具有挑戰性。這些模型十分晦澀難懂,以至於人們很難去理解,尤其如果他們不是人工智慧方面的專家。

可解釋性不只是對證明決策非常重要,它還可有助於防止事情出錯。因此,提供解釋可幫助研究人員使他們的系統更可靠,並阻止那些依賴它們的人犯錯誤。

在應用機器學習的物聯網相關產業,例如智能醫療、智能工業和智慧城市,這個問題也很重要。Stewart解釋說:「沒有相關解釋或推理,領域內專家不會相信所取得的成果。這就是許多領域內專家拒絕採用機器學習或深度學習的主要原因。但是對於物聯網領域這一情況正在逐步改善,一方面工程師們正在致力於打開機器學習的黑盒子,另其能夠解釋自己的行為;另一方面由於很多物聯網產品、設備本身就具有黑盒子的特徵,最終用戶對機器學習黑箱的畏懼情緒和接受程度與其他行業相比已有極大改觀。」


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器學習 的精彩文章:

第55期:Python機器學習實踐指南、Tensorflow 實戰Google深度學習框架
機器學習1:什麼是機器學習?

TAG:機器學習 |