當前位置:
首頁 > 科技 > 谷歌獲「注視點壓縮」專利,解壓縮VR視場高低敏銳度區域

谷歌獲「注視點壓縮」專利,解壓縮VR視場高低敏銳度區域

文章相關引用及參考:映維網


將視場劃分為高低敏銳度區域,並相應地進行解壓縮

映維網 2019年01月22日)在早前舉行的CES 2019大會上,過去數年間一直在研發無線VR壓縮技術的DisplayLink演示了一項名為「注視點壓縮」的技術,同時給人留下了深刻的印象。他們指出,這項技術能夠大大提高壓縮效率,同時將原來所需的帶寬降至三分之一。根據美國專利及商標局日前公布的一份最新專利,原來谷歌早在2017年7月就提交了與注視點壓縮有關的專利申請。


延伸閱讀

:DisplayLink為無線VR演示「注視點壓縮」技術,可將所需帶寬降至1/3

大家或許不會對注視點渲染這個概念感到陌生:由於我們的眼睛只能在視場中心範圍內看到高保真度內容,所以VR系統可以集中渲染注視點位置的圖像,並降低外圍視場的圖像質量較低,從而降低整體系統的渲染消耗。對於這一點,眼動追蹤可確保系統能夠始終在用戶視場中心渲染高質量圖像。如果足夠優秀,用戶將完全不會察覺到任何的不同。

谷歌獲「注視點壓縮」專利,解壓縮VR視場高低敏銳度區域

注視點壓縮同樣利用了類似的原理,谷歌在文件中寫道:「處理單元配置為渲染代表圖像高敏銳度區域的第一像素,以及代表圖像低敏銳度區域的第二像素。塑形器配置為根據低敏銳度區域的至少一個維度重新組織第一像素。多路復用器配置為多路復用重新組織的第一像素和第二像素以形成顯示數據流。編碼器配置為壓縮傳輸至顯示器的顯示數據流。解碼器配置為解壓縮顯示數據流。解復用器配置為解復用第一像素和第二像素。另一個處理單元配置為混合第一像素和第二像素以形成表示圖像的混合像素值。」


相關專利:Foveated Compression of Display Streams

簡單來說,谷歌系統將利用眼動追蹤把圖像劃分為中心注視點的高敏銳度區域和外圍視場的低敏銳度區域,然後利用演算法盡量保持高敏銳的原始像素,並重點解壓縮低敏銳度區域,從而有效降低無線傳輸所需的帶寬,並且提供中心注視點區域「幾乎無損」的質量。

值得一提的是,谷歌研究院在2017年同樣撰寫了一篇名為 「Strategies for Foveated Compression and Transmission(注視點沿所與傳輸策略)」的論文。

另外,這篇論文的作者是負責谷歌VR渲染研究工作的Behnam Bastani,而Facebook已於2018年將其挖到了專註於沉浸式技術研究的Facebook Reality Lab。

原文鏈接:https://yivian.com/news/55604.html

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 映維網VR 的精彩文章:

感測技術廠商Flexpoint宣布已獲多位AR/VR客戶的採購訂單
英偉達發布GeForce RTX 2060,售價350美元起

TAG:映維網VR |