當前位置:
首頁 > 最新 > 打造全新的計算時代:英偉達產品戰略全解析

打造全新的計算時代:英偉達產品戰略全解析

前幾天大家的朋友圈被英偉達GTC刷屏了,這家人工智慧時代最幸運的公司再一次賺足了眼球。英偉達的產品線實在太過豐富,黃教主每年的演講中也在不斷更新PPT、更新自家產品和技術的分類以應對市場的變化,今天我們就來好好梳理一下這些叫人眼花繚亂的產品。

機器學習中用到高性能計算的場景有兩種,一種是訓練training通過「喂」大量數據調整神經網路架構的參數,一種是推理Inference,訓練完成後的神經網路,參數已經確定,用它來批量完成特定任務。公眾的傳統印象都認為英偉達是一家晶元公司,其核心能力來自於對晶元底層硬體架構的設計,提供訓練深度學習模型的強大算力。然而老黃從2014年就開始宣稱Nvidia是一家AI軟體公司,它的CUDA生態中出現了越來越多的開發者工具、中間件、計算庫、應用等,英偉達將自己的觸角向推理端全面延伸。正如GTC上老黃演講的最後一頁PPT展示的那樣,英偉達依靠自己的算力優勢構建起了AI時代的最強生態。

開創計算新紀元——NVIDIA家族系列產品

Training——DGX

英偉達的DGX系列是用於訓練機器學習的AI超級計算機,可以為AI工程師提供在桌面、數據中心和雲端的強大開發工具,能夠在更大更複雜的深度神經網路上大幅縮短訓練耗時。

NVIDIA DGX AI超級計算機

NVIDIA DGX-1內置八塊Tesla V100,擁有每秒960萬次的浮點運算能力,過去 Titan X 需花費八天訓練的神經網路,用 DGX-1隻需八個小時,它相當於是「把 400 個伺服器裝進一個盒子里」。DGX station是一台個人工作站,搭載了四塊Tesla V100,相當於用於深度學習的PC。

NVIDIA DGX-1內置8塊Tesla V100

HGX-1是公有雲伺服器,內置八塊 Tesla V100,設計時就考慮了公有雲伺服器必需的多種任務處理與全能性。同時英偉達還推出了GPU Cloud,目的是解決深度學習工程師創建和設置開發環境的痛點,這是一件相當費時費力的事情,有時甚至會花費長達一個月的時間,現在只需要下載一套英偉達優化整合好的深度學習軟體包,就可以在幾分鐘內設置好本地開發環境,開發者所有需要的庫和框架都包含在內,並且用容器 NVDocker 隔離。

NVIDIA HGX 伺服器已被華為、浪潮、聯想等領先的雲伺服器廠商採用

Inference in theDatacenter

——Tesla

英偉達的傳統優勢一直被認為在training上,但今年以來英偉達重磅發布了一系列產品和架構,其對於inference的野心顯露無疑。英偉達的Tesla系列產品被應用於數據中心的推理計算,通過Volta架構+TensorRT生態英偉達正式進軍推理領域。

NVIDIA TESLA P100數據中心加速器

Volta架構

Volta架構是繼Pascal之後的新一代GPU架構,也就是老黃說的凝聚了NVIDIA數千名工程師數年的心血、研發投入達30億美金的新架構,所採用的處理器工藝已達到了「光刻工藝的極限」。Tensor Cores是Volta的一種新核心,它是一種全新的張量運算指令。深度學習需要大量矩陣和矩陣相乘的運算,Volta 架構將用於執行4*4矩陣操作的計算單元集合在一起,實現更高的FLOPS(每秒浮點計算),以某些精度來看吞吐量達到前一代Pascal架構的12倍。

Pascal架構 vs. Volta架構

深度學習引擎TensorRT

本次GTC大會黃教主發布了最新版本的TensorRT 3推理引擎,TensorRT可編程,支持所有框架,能加速所有網路結構。簡單來說,一邊是大公司開發出來的機器學習框架,比如TensorFlow、Caffe2、Microsoft Cognitive Tookit、Mxnet、Pytorch、theano等,一邊是英偉達的各種加速硬體,比如Tesla P4、Tesla V100、DRIVE PX 2、JETSON TX2、NVIDIA DLA等,TensorRT在中間充當橋樑作用,將各種訓練完的模型簡單快速而又高效地部署到各種硬體上去。

NVIDIA TensorRT全球首款可編程 AI 推理加速器

Inference in the Edge

——Jetson

Jetson是英偉達推出的嵌入式人工智慧超級計算平台,和名片一樣大小,可以通過介面將其連到外部電路板上進行開發,完成後部署到各種終端上,包括攝像頭、無人機、機器人、無人小車等,令其具備人工智慧計算能力。Jetson的發布也標誌著英偉達在終端人工智慧領域的布局又往前邁進了一步。目前採用了Jetson平台的有京東倉儲機器人、自動送貨無人機,海康威視雙目智能人臉攝像機(前端)與視頻雲結構化伺服器(後端)。

NVIDIA Jetson嵌入式人工智慧超級計算平台

NVIDIA Jetson開發者套件

自動駕駛平台NVIDIA Drive

英偉達在自動駕駛上的硬體有兩種:一是針對L2/L3自動駕駛的Drive PX2 Parker,另一個是針對L4/L5自動駕駛的Drive PX Xavier。

NVIDIA DRIVE PX 2

英偉達為了讓各位小夥伴愉快地使用它的晶元開發自動駕駛汽車,還構建了NVIDIA DRIVE整體架構,其中包括了:

Drive OS,自動駕駛操作系統;

Driveworks SDK,包含有API中間件、開發工具與技術支持,可完成視覺感知、高精度地圖繪製、定位、路徑規劃四大功能,這是自動駕駛最基本最核心的能力。

Drive AV,自動駕駛應用,你可以將其理解成一個演示平台,即告訴你使用英偉達的硬體能夠做出什麼東西來,有點類似於高通常給硬體廠商做的參考設計。

NVIDIA DRIVE整體架構

為什麼每一層都分別取了自己的名字呢?老黃的回答是,因為每一層都是開放的。也就是說,你要用英偉達的硬體、主板或晶元,但是其他部分如操作系統你想自己開發,沒有問題;如果除了應用之外,其他底層的堆棧你都想用英偉達的,也沒有問題。NVIDIA DRIVE每一層都是開放的,適用於不同類型、不同技術的公司。

自主機器處理器Xavier

Xavier是英偉達發布的針對自動駕駛的SoC,Xavier 同時具備 CPU 的單線程性能,CUDA 的並行加速能力,以及 DLA 的計算機視覺特殊功能,並且英偉達將會把Xavier DLA(深度學習加速器) 開源供所有開發者使用、修改。雖然Xavier是為自動駕駛開發的,但DLA的開源瞄準了更加廣闊的嵌入式和IoT市場,提供有inferance功能的硬體解決方案,這將對整個晶元產業產生深遠的影響。

NVIDIA Xavier自主機器處理器

開源硬體加速項目NVDLA

英偉達計劃開源深度學習加速器DLA的源代碼和指令集,這樣開發者可以針對不同應用場景下的需求進行剪裁,嵌入式硬體開發的門檻將會被極大地降低。英偉達選擇開源戰略,是在進一步鞏固自己的技術生態系統,同時通過「開源硬體+軟體+服務」的產品形態向「刀架+刀片」式的商業模式過渡。

機器人模擬環境Isaac

黃教主還非常關注的一個方向就是自動機器人,並且他強調這很可能是人工智慧下一個最重要的領域。英偉達推出了全新的機器人訓練方式「Project Isaac」,也就是在構建的虛擬環境種進行機器人訓練。憑藉這種全新技術,用戶完全不需要再在機器人實物上進行重複的調試和實驗,完全可以將整個場景搬到虛擬世界當中,並且利用GPU的學習能力,讓機器自行學會最佳處理方式。最關鍵的是,它所生成的演算法完全能夠移植到NVIDIA Jetson這樣的終端AI晶元平台之上,直接讓終端的機器人憑藉之前學習的經驗運行。

Isaac虛擬機器人訓練環境

面對如此進擊的英偉達,

AI晶元創業公司還有機會嗎?

眾所周知,晶元的研發周期長、成本高,DLA的開源使AI晶元的開發門檻極大降低。伴隨著深度學習應用的不斷湧現,軟硬體一體化設計的需求越來越強烈,一些公司可以基於DLA開發自己的深度學習加速器。這樣會有越來越多的公司利用開源資源實現自己的獨特硬體,進入到AI晶元領域,對創業公司會造成一定的衝擊。

不過從另一方面看,人工智慧還處在比較早期的發展階段,技術路線處於百花齊放的狀態。英偉達的開源硬體項目會推動整個AI生態的發展,但並不代表會扼殺掉其他創新。各種AI應用都有其特殊性,英偉達追求的通用性和AI應用的獨特性之間存在天然的gap,這就是創業公司的生存空間。英偉達不會也沒有必要去切入每一個細分市場,對特定場景的理解和提供高效率低能耗的解決方案上,創業公司可以比英偉達做得更好。最後就要看誰跑得更快,誰能搶位成功在細分市場站穩腳跟了。

GIF/1K

小研聊科技,幫助投資者理解科技。歡迎關注公眾號,聯繫小研,加入私享群,和大牛們共同探討科技創投最新趨勢。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 小研聊科技 的精彩文章:

TAG:小研聊科技 |