當前位置:
首頁 > 最新 > AI基礎資源現狀分析

AI基礎資源現狀分析

GIF

導讀

如今,深度學習在諸多領域都已經嶄露頭角,包括計算機視覺、語音和音頻處理、自然語言處理、機器人技術、生物信息學和化學、電子遊戲、搜索引擎、網路廣告和金融等等。不管是有志於此的研究者,還是相關從業人員,都需要系統性地了解深度學習的基礎與應用、理論與實踐等各個方面的知識。

AI基礎資源

縱觀人工智慧的發展歷程,幾次起落很大程度上受到業界對人工智慧的認知變化及市場預期的影響,但究其根本還是在於技術的局限性。沒有基礎設施的供給,人工智慧的所有設想將淪為幻想。

當前人工智慧主要致力於訓練機器看懂圖像、聽懂語言、處理大數據,實現人機自然交互,輔助人類進行決策,最終實現自我決策。而支撐這一目的的基礎要素可以歸納為三點,即數據、演算法、算力,此三點缺一不可。

關於這三者的關係,曾有一個著名的比喻:發展人工智慧就像用火箭發射衛星,需要強有力的引擎和足夠的燃料,如果燃料不夠,火箭無法將衛星推到合適的軌道;如果引擎推力不夠,火箭甚至都不能起飛。而這當中,演算法模型就好像引擎,高性能的計算機是打造引擎的工具,海量的數據就是引擎的燃料。

大數據:移動互聯網造就海量數據,結構化數據依然缺乏

互聯網催生了大數據,而大數據則催生了人工智慧。

數據是訓練人工智慧的必備燃料,在現階段人工智慧的發展水平下,數據的規模和質量直接決定了模型的訓練效果。

2005年,在美國國家標準與技術研究所舉辦的機器翻譯軟體評測中,在該領域初出茅廬的Google成為了最大的黑馬,在BLEU分值(一種機器翻譯的評價準則)上大幅超越IBM、德國亞琛工學院等諸多老牌機器翻譯機構。賽後,Google公布了獲勝的秘訣:他們使用了比其他團隊多上萬倍的數據!

但是,在人工智慧發展的早期階段,獲得大量的數據並非易事,甚至成為AI發展歷程中難以克服的掣肘。但這一問題正隨著數據時代的到來而得到緩解,特別是聯網設備的爆發和服務生態的完善使得數據來源增多,促使數據呈指數式增長。IDC的數據顯示,自2010年全球數據量突破1ZB(1ZB為1萬億GB)以來,2016年這一數據已達到16.1ZB。IDC預計,未來數據量的CAGR(年度複合增長率)高達30%相應地2025年數據量將會達到163ZB。

需要說明的是,僅關注數據規模還遠遠不夠,只有結構化的數據對於訓練人工智慧才有意義。結構化數據的獲取可以分為數據採集、清洗、標註、建模等幾個流程,這考驗著研究者收集數據和處理數據的能力。目前海量的有效數據主要掌握在互聯網巨頭手中,在已經到來的人工智慧時代,由於馬太效應的存在,憑藉這些寶貴資產,他們可以和用戶形成良性的數據閉環,從而強者恆強。

另一方面,更多的從業者其實面臨著數據短缺的尷尬境地。這些從業者主要分為兩類:傳統企業和AI創業公司。

比起傳統企業,AI創業公司對數據的渴求更加強烈,對於此類公司,目前較為常見的訓練數據來源主要有三種:

學術界和大公司對外開放的免費資料庫。以計算機視覺為例,其中最為知名的是斯坦福大學李飛飛副教授創立的ImageNet。經過多年的積累,ImageNet通過眾包的方式積累了2萬多種類別的1400多萬張圖片,是目前世界上最大的圖片資料庫。另外,Google作為開源大戶,於2016年相繼對外開放了自然語言資料庫、視頻資料庫、圖片資料庫。

通過第三方數據供應商或眾包平台購買或定製數據。對數據的需求促進產業生態進一步完善,催生了專業的第三方服務供應商,國內較為知名的有海天瑞聲、數據堂等。另外,需求者還可以通過眾包平台發布任務,聚集平台上的閑散廉價人力為己所用,如CrowdFlower、亞馬遜的AMT(Amazon Mechanical Turk)、百度眾包平台等。

自行採集實際數據或模擬數據。對於某些特殊場景,現有的數據積累不足或無法滿足需求,則需要廠商自行採集數據。典型場景,如自動駕駛。

計算力:GPU成AI晶元代名詞,FPGA、ASIC日受青睞

CPU:眾所周知,傳統的數據計算是依靠CPU處理器,然而近年來,隨著集成電路越來越複雜,半導體技術的改進幾近達到物理極限。而互聯網的快速發展,導致數據規模急劇擴張,此時的矛盾集中表現為處理器性能無法滿足計算需求。

GPU:GPU又叫圖形處理器,它的特點是有大量的核和大量的高速內存,主要擅長做類似圖像處理的並行計算。後來人們漸漸發現,這個特點同樣適用於深度學習的訓練,而且相比於CPU,GPU可以提供更快的處理速度、更少的伺服器投入以及更低的功耗。2009年,斯坦福大學的一篇論文發現,在訓練深度神經網路時,使用GPU會比CPU快70倍。自此在深度學習的訓練領域,CPU開始被冷落,GPU也已經不再是通常意義上的圖形處理器,逐漸已成為AI訓練專用處理器的事實標準。這也讓GPU技術的領跑者英偉達賺的盆滿缽滿,在過去的5年間,英偉達的股價上升了約18倍。

FPGA(Field-Programmable Gate Array,現場可編程門陣列):作為人工智慧深度學習方面的計算工具,除了GPU以外,FPGA也為很多開發者所推崇。FPGA的中文名為「現場可編程門陣列」,它具有可編程專用性、高性能、低功耗等特點。目前整個FPGA市場主要由賽靈思和Altera主導,兩者共同佔有85%的市場份額,2015年,Altera被英特爾收購。

ASIC(Application Specific Integrated Circuits,專用集成電路):是指應特定用戶要求或特定電子系統的需要而設計、製造的集成電路。嚴格意義上來講,ASIC是一種專用晶元,與傳統的通用晶元有一定的差異。與通用集成電路相比,具有以下幾個方面的優越性:體積更小、功耗更低、可靠性提高、性能提高、保密性增強、成本降低。但深度定製也意味著需要大量的研發投入,如果不能保證出貨量,其單顆成本難以下降,而且晶元的功能一旦流片後則無更改餘地,若深度學習方向一旦改變,ASIC前期投入將無法回收,意味著ASIC具有較大的市場風險。Google自主研發的專用於人工智慧深度學習計算的TPU,其實也是一款ASIC。

深度學習助推AI發展,語音識別、計算機視覺大躍進

大數據、計算力和演算法是三位一體,不可分割的,而這一波人工智慧的崛起也得益於深度學習理論的發展和完善。雖然深度學習看似一個全新的領域,但是事實上它的歷史可以追溯到20世紀40年代。20世紀40年代到60年代,深度學習的雛形出現在控制論中;20世紀80年代到90年代,深度學習表現為聯結主義;直到2006年,才真正以深度學習之名復興。深度學習是機器學習中一種基於對數據進行表徵學習的方法,這一波深度學習熱潮與卷積神經網路密不可分。

2012年10月,Alex Krizhevsky以及Geoffrey Hinton等人創造了一個「大型的深度卷積神經網路」,也即現在眾所周知的AlexNet。在當年的ImageNet圖像分類競賽中,AlexNet的top5的錯誤率為15.4%,比上一年的冠軍成績下降了十個百分點,而且遠遠超過當年的第二名,獲得重大突破。從那時起,CNN就成了圖像分類的黃金標準,並且性能不斷提升,自2015年起,CNN在ImageNet上的錯誤率已低於人類。從AlexNet到VGG,再到GoogleNet、ResNet,可以說,在計算機視覺領域,CNN的不斷發展起到了重要的推動作用。

至於語音識別領域,則主要受益於循環神經網路(Recurrent Neural Network,簡稱RNN)的發展。2017年3月,IBM宣布在語音識別領域創造了新的業界紀錄:5.5%的詞錯率(Word Error Rate)相比20年前的43%降幅巨大,這其中就有RNN的變種——長短時記憶網路(Long Short-Term Memory,簡稱LSTM)的功勞。此外,機器翻譯領域也用到了LSTM。2016年9月,Google發布神經機器翻譯系統GNMT,將多種語言的翻譯誤差降低了55%-85%以上。而這個深度學習模型就是由包含8個編碼器和8個解碼器的深度LSTM網路組成。

Goodfellow、Bengio、Courville

《深度學習》

一直以來,中潤普達都致力於大數據人工智慧領域的研發和技術創新,以技術驅動為中心,堅持「把中文認知計算革命進行到底」。作為國內基於中文認知計算的大數據應用專業服務機構,運用自主研發的中文大數據認知矩陣(信源矩陣、分詞矩陣、規則矩陣)計算技術,配合豐富的業務場景模型和中文大數據動態平衡模型,將深度語義分析系統作為核心技術為眾多行業服務,構建各行業的專屬語義模型,自動提取專有辭彙和核心語義,建立垂直行業知識圖譜。該技術以特有的結構化方式分析文字含義,深入到各類非結構化數據自我訓練,可以全面幫助政府、企業和機構開啟大數據決策、預測、運營、精準營銷和效能管理。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 中潤普達大數據 的精彩文章:

中潤普達新聞快報

TAG:中潤普達大數據 |