當前位置:
首頁 > 科技 > Google解釋Pixel 3是如何靠AI改進人像功能的?

Google解釋Pixel 3是如何靠AI改進人像功能的?

跟前代相比,Google今年出的Pixel 3系列在處理人像拍攝時的表現要來得更好。考慮到兩者用的都是單顆主相機的設計,所以改進大部分還是來源於軟體。那說到底,Google究竟做了些什麼讓Pixel 3的人像演算法變得更強?今天他們就決定發文來解釋一下。

在Pixel 2推出的時候,Google是利用神經網路和相機上的相位對焦技術(後者主要是跟視差效果有關)來確定拍攝時處於前景的對象。但這套方案在面對變化不大的場景時就容易出錯,而且在以小光圈進行拍攝的時候也比較容易發生問題。為了改善這些,Google在Pixel 3上運用了新的神經網路,希望通過對象的常規形狀、場景中不同點的清晰度等多項因素,來更準確地判斷對象距離。另外在訓練這套系統時,Google也採用了一些創造性的辦法。比如說他們曾做出過把五台Pixel 3綁在一起的「Frankenphone」,以同步記錄深度信息,來消除光圈、視差方面的不足。

看到Google在AI上投入了那麼多的資源,可見他們對單相機方案的決心是多麼之大。當然啦,你也可以反過來想。Google一直堅持這種小眾做法的原因,搞不好也是為了探索演算法的極限,從而秀出自己在人工智慧領域的「肌肉」呢。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 十輪網 的精彩文章:

Samsung與受癌症影響的員工完成最終和解
谷歌、微軟等CEO都來自印度!什麼讓印成為CEO最大出口國?

TAG:十輪網 |