當前位置:
首頁 > 最新 > NVIDIA研究人員利用AI將標準視頻轉換為高質量慢動作鏡頭

NVIDIA研究人員利用AI將標準視頻轉換為高質量慢動作鏡頭

AiTechYun

編輯:chux

來自NVIDIA的研究人員開發了一個基於深度學習的系統,該系統可以用每秒30幀的視頻製作高質量的慢動作視頻,超過了旨在實現相同效果的各種方法。研究人員將在本周CVPR會議上介紹這個項目。

研究人員在研究報告中寫道。「你的生活中有許多令人難忘的時刻,你可能需要用慢鏡頭拍攝,因為它們很難以常速看清楚,比如嬰兒第一次走路,一個很難的滑板技巧,一隻狗抓球。雖然用手機拍攝每秒240幀的視頻是可能的,但是以高幀率記錄所有內容是不切實際的,因為它需要大容量存儲器,而且對於移動設備來說功耗很大。」

通過這項新研究,用戶可以在拍攝後減慢錄製速度。

使用NVIDIA Tesla V100 GPU和cuDNN加速的 PyTorch深度學習框架,該團隊用每秒240幀的超過11,000個日常和體育活動視頻訓練了他們的系統。一旦訓練完畢,卷積神經網路就預測出額外的幀。

研究人員表示:「我們的方法可以生成多個空間和時間連貫的中間幀。多幀方法始終優於最先進的單幀方法。」

為了幫助展示研究成果,該團隊從慢動作世界中獲取了一系列剪輯。

該方法可以拍攝生活中最珍貴時刻的日常視頻,並將它們放慢速度,看起來像是電影中的慢動作場景,增添了懸念,為觀看的人帶來更多期待。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 ATYUN訂閱號 的精彩文章:

Flir與美國陸軍達成260萬美元的交易,為軍隊提供迷你無人機
Airbus和IBM計劃讓機器人CIMON加入國際空間站執行任務

TAG:ATYUN訂閱號 |