當前位置:
首頁 > 科技 > 為什麼只有部分iPhone支持人像模式?

為什麼只有部分iPhone支持人像模式?

去年蘋果興高采烈推出iPhone 7 Plus,手機的攝像頭增加一個新功能,很快這個功能就成為許多人談論的話題,還有很多企業複製,它就是「人像模式」(Portrait Mode)。

人像模式用手機的兩個攝像頭和蘋果軟體模仿單反相機,讓圖像變得和單反一樣,簡單來講就是將拍攝對象突出顯示,讓背景虛化。

最開始時,人像模式只用在iPhone 7 Plus手機上。一年多過去了,現在人像模式又出現在iPhone 8 Plus上,很快還會進入iPhone X。

人像模式到底是如何工作的?如何使用?為什麼只有部分iPhone支持,另一些不支持?今天我們就來深入解釋一下:

需要雙攝像頭

為什麼只有部分iPhone可以使用人像模式呢?比如iPhone 7 Plus、iPhone 8 Plus、iPhone X,原因很簡單:蘋果人像模式需要雙攝像頭。

2016蘋果推出人像模式,沒多久,這個功能就出現在其它旗艦手機上,比如三星Galaxy Note 8(叫作Live Focus)、谷歌Pixel(叫作Lens Blur)。

看看Pixel手機,它只有一個鏡頭,谷歌利用軟體讓圖像達到人像模式的水平。蘋果iPhone需要兩個攝像頭才能實現,至少目前需要兩個。如果你購買iPhone 8,沒有辦法使用人像模式。

為什麼需要2個鏡頭

為什麼蘋果人像模式需要2個鏡頭?因為每一個鏡頭都是不同的,一個是1200萬像素廣角鏡頭,還有一個是1200萬像素遠距鏡頭。

當我們拿起手機用人像模式拍照時,兩個鏡頭髮揮不同的作用。

遠距鏡頭負責捕捉圖像,捕捉時廣角鏡頭正在忙著收集數據,判斷拍攝對象離手機有多遠,然後用數據製作9層深度圖。

深度圖相當關鍵

廣角鏡頭製作的深度圖影響最終結果,有了深度圖,蘋果圖像信號處理器才能知道哪部分應該清晰顯示,哪部分應該虛化。

看看上面這張圖片,左邊是標準iPhone照片,右邊是用人像模式拍攝的。掃一眼就會發現,右邊的照片背景完全虛化,這說明深度圖發揮了作用。

為了讓照片看起來更自然,更接近單反照片,蘋果圖像處理器會一層一層掃視深度圖,一層一層虛化,虛化的程度各有不同,這種處理技術名叫「散景」(bokeh)。

靠近拍攝對象的層會比遠一些的層更清晰,細細查看上面的照片,就會發現靠近女子的物體更容易辨識,比如草、地面上的木條,遠處的懸崖更難辨別。

人像模式也有不足的地方

一般來說,如果拍攝的對象包含人物和靜物,使用人像模式比較好,不過該功能也有一些限制:它對光強、人與拍攝對象的距離要求比較高。

在低光環境下,人像模式的效果並不好,或者根本無法使用。如果太黑暗,人像模式無法使用,拍照App會提示你。

如果離拍攝的對象太近,手機也會提醒你保持距離。如果想拍好人像模式照片,你離拍攝對象的距離最好不要小於19英寸。

還有一點要注意:如果拍攝對象與背景對比強烈,人像模式拍出的效果最好。如果拍一隻白色咖啡杯,杯子放在白色櫃檯上,感測器就會著急,它無法判斷焦點在哪裡,不知道哪部分應該虛化。

使用更簡單

蘋果希望人像模式使用時能夠變得更簡單,例如,如果照片中有一些效果你不喜歡,可以自由刪除。

如果你拍了一張人像模式照片,後來又改變主意,想在拍完之後刪去虛化效果。好辦,只要選擇照片,按編輯按鈕,然後觸擊「人像」選項。此時照片就會變成標準iPhone照片。

只有iPhone 7 Plus、iPhone 8 Plus和iPhone X支持人像模式,後兩款手機還支持「Portrait Lighting」,它可以調節拍攝對象周圍的光線,讓照片呈現出不同的效果。

iPhone 8和8 Plus已經開始銷售,iPhone X將於11月3日開售。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 愛思助手 的精彩文章:

蘋果系統升級讓舊手機變慢?數據解釋這是誤解
Face ID成標配 2018年iPad或迎大變革
iPhone X定價為什麼這麼高?一語道破天機
蘋果重新開放iOS 刷機驗證 僅限iPhone 6s

TAG:愛思助手 |