當前位置:
首頁 > 最新 > 引發機器學習大爆炸的導火索

引發機器學習大爆炸的導火索

早在20世紀50年代,機器學習系統就誕生了,但問題是:為什麼我們現在才突然看到AI在眾多領域的突破性發展?以下三個因素可說明癥結所在:數據大量增加;演算法進步顯著;計算機硬體性能得到巨大提升。在過去20年中,應用軟體中的數據可用性增長1000倍,關鍵演算法改進10到100倍,硬體速度至少提高100倍。麻省理工學院的托馬索·波吉奧(Tomaso Poggio)稱,正是因為以上所有進步,應用軟體才有了質的提升,比如自動駕駛汽車的行人檢測視覺系統。

現在我們來逐一了解這三大因素。數據。音樂CD、電影DVD和網頁這幾十年來豐富了全球數字編碼信息,而過去幾年裡信息出現爆炸式增長。現在,我們接收的信號來自智能手機和工業設備的感測器、數字照片和視頻、源源不斷的社交媒體信息流和其他很多應用軟體,數據的豐富程度前所未有。現在,世界上90%的數字數據都是過去兩年中湧現的。如今,物聯網的發展勢如破竹,數十億新裝置及其數據流將實現連接,所以,在接下來的10年中,我們勢必將處理更多數字數據。

演算法。數據爆炸既讓現有演算法變得更有效,還促進支撐並加快了更高級演算法的開發,因此意義非凡。目前主宰這一領域的演算法和做法(比如深度監督學習和增強學習)都有一個重要的共同點:其結果隨訓練數據的增加而提升。演算法的表現到了一定高度後通常會趨於穩定,之後再輸入更多數據,也基本上沒有任何提升。但我們現在普遍使用的演算法,很多都不會出現這種情況。此外,新演算法可以在不同應用軟體中傳遞知識,所以需要學習的實例會越來越少。

計算機硬體。摩爾定律在2015年迎來了50周年,而且發展依然強勁。該定律指出,集成電路能力每隔18到24個月都會增加一倍。最近有人評論說,摩爾定律快要觸及物理學的極限,所以在接下來的幾年中發展會放緩;事實上標準微處理器的進化已經停滯。但一種與微處理器類似的計算機晶元,安裝在神經網路的計算系統中時,恰恰能夠高效運行,這種晶元即圖形處理器(GPU)。實際上,神經網路從傳統中央處理器轉移到GPU,很可能會提速10倍。最初開發GPU的目的是,加快電腦遊戲等應用軟體的圖形顯示過程,從而實現規模生產、降低硬體成本。但現在GPU越來越多地用在神經網路中,而隨著神經網路應用軟體的進一步普及,一些公司甚至為這些應用開發專業晶元,比如谷歌的感測器處理器,或塑性聚氨酯彈性體(TPU)。谷歌DeepMind聯合創始人尚恩·萊格(Shane Legg)稱,現在一個TPU一天處理的數據需要1990年的80486微處理器花25萬年才能處理完,這相當於速度又提升了10倍。

以上進步會產生協同效應。比如硬體升級有助於工程師測試、開發更好的演算法,當然機器也得以在長時間內持續處理更大的數據組。現在,有些應用軟體的工作(如將語音轉化為有意義的文字)交給20世紀90年代的老式硬體做的話,幾乎要用好幾個世紀才能完成。這些進展激勵更多聰慧的研究人員加入AI行業,更多投資者和高管為深度研究提供資金。

全球網路和雲端技術進一步加強了協同效應。移動互聯網現在幾乎覆蓋了地球上任一地點,將數十億潛在客戶和重要AI技術連接起來。你可以想想目前正在使用的智能手機上的智能助手、大公司在全球範圍內分享的數字知識庫,以及維基百科和Kaggle等眾包系統(其主要用戶和貢獻者都來自組織之外)。

更重要的是,AI和機器學習搭載雲技術後會進一步提升和擴散。比如,某一固定地點的機器人很難完成物體識別或其他任務。但一旦它學會執行這項任務後,就可以將知識上傳到雲端,分享給其他使用同一知識表達系統的機器人(Rethink Robotics公司正在開發這樣的平台)。這樣單獨作業的機器人就有了數百、數千,甚至數百萬眼睛和耳朵,並得以高效收集數據。機器人將所有信息整合到一個系統內,學習速度會顯著提高,洞見也幾乎能即時得到分享。(劉筱薇 | 譯 牛文靜 | 校 李全偉 | 編輯)


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器學習 的精彩文章:

揭秘出行巨頭Uber的機器學習平台與團隊
人工智慧、機器學習和深度學習的區別是什麼?
一文清晰講解機器學習中梯度下降演算法
當機器學習遇上3D列印,大型工業製造革命指日可待
五種機器學習是革命性製造

TAG:機器學習 |