當前位置:
首頁 > 最新 > 谷歌發布:Kubernetes引擎中的GPU發布beta版

谷歌發布:Kubernetes引擎中的GPU發布beta版

去年,我們推出了首款針對Google Kubernetes Engine的GPU alpha產品,使用NVIDIA Tesla GPU,並獲得了驚人的客戶響應。今天,Kubernetes引擎中的GPU處於beta階段,並且可以在最新的Kubernetes Engine版本中廣泛使用。

在Kubernetes Engine中使用GPU可以增強計算密集型應用,如機器學習(ML),圖像處理和財務建模。 通過將CUDA工作負載打包到容器中,無論何時需要,都可以從Kubernetes Engine GPU的強大處理能力中受益,而無需管理硬體甚至虛擬機。

憑藉其一流的CPU,GPU和現在的TPU,Google Cloud為在雲中運行ML工作負載提供了最佳選擇,靈活性和性能。 例如,搭乘共享先驅Lyft使用Kubernetes Engine中的GPU來加速其深度學習模型的訓練。

GKE集群非常適合深度學習工作負載,具有開箱即用的GPU集成,針對尖端培訓工作負載的自動縮放集群以及集成的容器記錄和監控。「

- Lyft工程副總裁Luc Vincent

NVIDIA(英偉達)Tesla P100和K80 GPU作為beta版本的一部分提供,並且V100即將問世。 最近,我們還推出了可搶佔式GPU以及新的更低價格,為你解開新的機遇。

在Kubernetes引擎中開始使用GPU

使用Kubernetes Engine中的GPU創建集群非常簡單。 從雲控制台,可以在「創建Kubernetes群集」頁面上展開機器類型,以選擇GPU的類型和數量。

如果想要將具有GPU的節點添加到現有集群中,則可以使用節點池和集群Autoscaler功能。通過在GPU中使用節點池,群集可以在需要時使用GPU。與此同時,Autoscaler可以在請求GPU的pods被調度時自動創建具有GPU的節點,並且當GPU不再被任何活動的pod消耗時,縮小到零。

以下命令使用GPU創建一個節點池,最多可擴展到五個節點,最少可擴展到零個節點。

在後台,Kubernetes引擎應用了taint 和 toleration技術,以確保只有GPU請求的GPU才會在具有GPU的節點上進行調度,並防止不需要GPU的GPU運行。

儘管Kubernetes Engine為你後台做了很多事情,但我們也希望你了解GPU作業的表現如何。 Kubernetes Engine公開了使用GPU的容器度量標準,例如GPU的繁忙程度,可用的內存量以及分配的內存量。還可以使用Stackdriver來查看這些指標。

有關使用GPU的Kubernetes引擎的更詳細的解釋,例如安裝NVIDIA驅動程序以及如何配置一個pod以使用GPU,請查看文檔。

用Kubernetes解決新的工作負載

2017年,Kubernetes Engine核心工作時間同比增長9倍,並且該平台作為ML工作負載的首要部署平台獲得了巨大的發展動力。對於像Kubeflow這樣的開源項目,我們感到非常興奮,它使得它在Kubernetes中運行ML堆棧變得簡單,快速和可擴展。我們希望這些開源ML項目和GPU在Kubernetes Engine中的結合將幫助您在商業,工程和科學領域進行創新。

今天就嘗試

要開始使用帶有Kubernetes Engine的GPU,使用我們免費試用的300美元積分,需要升級你的帳戶並申請GPU配額才能生效。

感謝你在制定我們的路線圖方面提供支持和反饋,以更好地滿足您的需求。保持對話進行,並在Kubernetes引擎頻道與我們聯繫。

https://cloudplatform.googleblog.com/2018/02/accelerate-highly-parallelized-compute-tasks-with-GPUs-in-Kubernetes-Engine.html


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雲技術實踐 的精彩文章:

六款開源路由器比較

TAG:雲技術實踐 |