系統知識網 手機應用 為什麼 iPhone SE 依靠單攝像頭就可以拍攝人像照片?

為什麼 iPhone SE 依靠單攝像頭就可以拍攝人像照片?

正常情況下,手機拍「人像模式」這樣的虛化照片都得靠雙攝來完成 —— 好比是人類的雙眼,兩個位置不同的鏡頭會獲取兩張不同角度的畫面,然後結合視角差估算出景深,從而實現背景虛化,保持主體清晰。那麼 iPhone 的前置單攝可以實現人像拍攝的核心。

正常情況下,手機拍「人像模式」這樣的虛化照片都得靠雙攝來完成 —— 好比是人類的雙眼,兩個位置不同的鏡頭會獲取兩張不同角度的畫面,然後結合視角差估算出景深,從而實現背景虛化,保持主體清晰。

那麼 iPhone 的前置單攝可以實現人像拍攝的核心在於 Face ID 系統中的紅外點陣投影器,它也可以獲取足夠精準的深度數據,相當於是一顆「輔助鏡頭」。前不久,第三方相機應用 Halide 的開發者Ben Sandofsky解釋為什麼新 iPhone SE 采用瞭和 iPhone 8 一樣的單鏡頭規格,但卻可以做到後者所無法實現的人像拍照模式。

拆解的情況證明, iPhone SE 和 iPhone XR 的攝像頭並不一致,導致瞭兩者在技術上存在差異。

新 iPhone SE,由於它的傳感器過於老舊,Halide 稱它無法依靠傳感器來獲取視差圖,基本隻能靠 A13 Bionic 芯片所提供的機器學習算法,去模擬和生成深度數據圖。在新 iPhone SE 上,配合 A13 芯片所提供的全新算法,我們則得到瞭一張完全不同於 XR 的深度圖。它不僅正確識別出瞭小狗的耳朵和整體輪廓,還針對不同遠近的背景做瞭分層處理。

這種深度圖並不是 100% 準確的,Halide 表示,新 iPhone SE 在拍攝非人臉題材的虛化照片時,摳圖和虛化的精準度明顯沒有拍人像時來得精準。

尤其是在一些主體和背景圖十分模糊的情況下,此時多攝像頭的優勢會更明顯些。在新 iPhone SE 上,盡管同樣有分層處理的結果,但被攝主體和背景已經完全融在瞭一起,後期虛化時自然會比 iPhone 11 Pro 差不少。

這也是為什麼,現在新 iPhone SE 使用 iOS 自帶相機應用時,隻有在檢測到人臉的情況下,才能啟用「人像模式」拍虛化照片,其餘情況則會出現錯誤提示,這點和之前的 iPhone XR 一樣。

返回顶部