NVIDIA研究人員利用AI將標準視頻轉換為高質量慢動作鏡頭
最新
06-21
AiTechYun
編輯:chux
來自NVIDIA的研究人員開發了一個基於深度學習的系統,該系統可以用每秒30幀的視頻製作高質量的慢動作視頻,超過了旨在實現相同效果的各種方法。研究人員將在本周CVPR會議上介紹這個項目。
研究人員在研究報告中寫道。「你的生活中有許多令人難忘的時刻,你可能需要用慢鏡頭拍攝,因為它們很難以常速看清楚,比如嬰兒第一次走路,一個很難的滑板技巧,一隻狗抓球。雖然用手機拍攝每秒240幀的視頻是可能的,但是以高幀率記錄所有內容是不切實際的,因為它需要大容量存儲器,而且對於移動設備來說功耗很大。」
通過這項新研究,用戶可以在拍攝後減慢錄製速度。
使用NVIDIA Tesla V100 GPU和cuDNN加速的 PyTorch深度學習框架,該團隊用每秒240幀的超過11,000個日常和體育活動視頻訓練了他們的系統。一旦訓練完畢,卷積神經網路就預測出額外的幀。
研究人員表示:「我們的方法可以生成多個空間和時間連貫的中間幀。多幀方法始終優於最先進的單幀方法。」
為了幫助展示研究成果,該團隊從慢動作世界中獲取了一系列剪輯。
該方法可以拍攝生活中最珍貴時刻的日常視頻,並將它們放慢速度,看起來像是電影中的慢動作場景,增添了懸念,為觀看的人帶來更多期待。
※Flir與美國陸軍達成260萬美元的交易,為軍隊提供迷你無人機
※Airbus和IBM計劃讓機器人CIMON加入國際空間站執行任務
TAG:ATYUN訂閱號 |