當前位置:
首頁 > 新聞 > 谷歌發布 TensorFlow 1.6.0,針對 CUDA 9.0 和 cuDNN 7 預構建二進位文件

谷歌發布 TensorFlow 1.6.0,針對 CUDA 9.0 和 cuDNN 7 預構建二進位文件

雷鋒網 AI 研習社消息:日前,谷歌發布 TensorFlow 1.6.0 正式版,帶來了多項更新和優化,雷鋒網 AI 研習社將谷歌官方介紹編譯如下:

谷歌發布 TensorFlow 1.6.0,針對 CUDA 9.0 和 cuDNN 7 預構建二進位文件

重大改進:
  • 針對 CUDA 9.0 和 cuDNN 7 預構建二進位文件;

  • 預構建的二進位文件將使用 AVX 指令,這可能會破壞較老的 CPU 上的 TF。

主要的特徵和改進

  • 針對非插槽變數的新優化器內部 API;

  • 現在 tf.estimator.{FinalExporter,LatestExporter} 可以導出剝離的 SavedModels,這增加了 SavedModels 的前向兼容性;

  • FFT 支持添加到 XLA CPU / GPU;

  • Android TF 現在可以在兼容的 Tegra 設備上使用 CUDA 加速來構建(更多信息,請參閱 contrib / makefile / README.md)。

Bug 修復和其他改進:

文件更新:

  • 增加了 Getting Started 的第二個版本,主要針對機器學習新手;

  • 闡明了 resize_images.align_corners 參數文檔;

  • 增加了 TPU 文檔。

谷歌雲存儲(GCS)

  • 增加了客戶端節流;

  • 在 FileSystem 介面上增加了 FlushCaches 方法,用於 GscFileSystem 實現。

其他:

  • 增加了 tf.contrib.distributions.Kumaraswamy;

  • RetryingFileSystem::FlushCaches 可調用基礎 FileSystem 的FlushCahes;

  • 將 auto_correlation 添加到了 distribution;

  • 增加了 tf.contrib.distributions.Autoregressive;

  • 增加了 SeparableConv1D layer;

  • 增加了卷積 Flipout layer;

  • 當 tf.matmul 的兩輸入都是 bfloat16 時,它將返回 bfloat16,而不是 float32;

  • 增加了 tf.contrib.image.connected_components;

  • 增加了可讓原子變數訪問的 tf.contrib.framework.CriticalSection;

  • 分類任務的樹預測上輸出變化;

  • 對於 pt 和 eval 指令,可允許張量值以 numpy 文件寫入 filesystem;

  • gRPC:傳播截斷的錯誤(而不是返回 gRPC 內部的錯誤);

  • 增加 parallel_interleave 來支持兩種預取;

  • 改進了 XLA 對 C64-related ops log, pow, atan2, tanh 的支持;

  • 增加了概率卷積層。

API 改變

  • 將 prepare_variance 布爾值默認設置為 false,方便後向兼容;

  • 將 layers_dense_variational_impl.py 移至 layers_dense_variational.py。

詳細的更新信息請查看 TensorFlow 的 Github 頁面:

https://github.com/tensorflow/tensorflow/releases。

雷鋒網 AI 研習社編輯整理。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 雷鋒網 的精彩文章:

幣安伺服器升級,系統維護時間延長至晚上10點
綠盟科技:沈繼業將成第一大股東

TAG:雷鋒網 |