沒綠幕也能做MR特效視頻了,谷歌用AI實現背景分離
文章相關引用及參考:next.reality
全息視頻聊天可能很快就能實現
(映維網 2018年03月06日)谷歌研究團隊發現了機器學慣用於簡化時間密集型任務的另一種方法,而這最終可以促進實現「星球大戰」般的全息視頻。
這項研究已經取得了成效,因為YouTube將在Stories中提供這種視頻分離功能(一種類似於Snapchat的視頻格式,目前僅通過有限beta版本的形式向部分創作者開放)。即便沒有綠幕背景或其他設備,用戶都能輕鬆改變他們的視頻背景。
谷歌研究人員在最近的博文中介紹了神經網路如何能夠實時分離視頻中前景和後景的對象。負責領導項目的谷歌軟體工程師Valentin Bazarevsky和Andrei Tkachenka寫道:「我們的近期目標是利用在YouTube Stories中的有限推出來測試我們的技術。隨著我們改進和擴大我們的分離技術,我們計劃將其整合到谷歌更廣泛的增強現實服務中。」
實際上,蘋果的Clips應用程序已經為我們帶來了這種視覺魔術。但是,Clips需要iPhone X及其原深感攝像頭的加持。
谷歌的計算機視覺方法可以為更多的受眾提供類似體驗。這支團隊設計了能夠在智能手機上以高質量完成任務的卷積神經網路(CNN),其在iPhone 7上的速度達到100FPS以上,而在Pixel 2上則可以超過40FPS。
蘋果和谷歌都已經展示了軟體將如何幫助分離對象和背景,從而促進增強現實體驗作為深度感測器的替代品。但谷歌正通過機器學習來進一步推進這一方法。由於谷歌最終著眼於AR服務,全息視頻聊天可能很快就能實現。
文章《沒綠幕也能做MR特效視頻了,谷歌用AI實現背景分離》首發於 映維網。
QQ群:251118691
公眾號:YiVianVR
商務微信:yivian001
投資合作:yivian.com/about
微信社群:yivian.com/vrcxo
行業報告:yivian.com/vrstats
閱讀原文:進入官網查看更多資訊
※分離運動軸與視平面,MONKEYmedia提出暈動症新解方
※斯坦福大學VR實驗室創始人:我已研究20年,但路仍很長
TAG:映維VR |