以下文章來源於一點OnePoint ,作者李白兔子
一點OnePoint
一次教你一點攝影知識和技能,易學易用,點滴積累,讓你成為影像達人。
前言
北京 - 上海,約 1212 公里,
北京 - 大理,約 2188 公里。
1 個月時間,超過 4000 張照片,
這就是本文觀點的基礎。
本次評測的機型是 iPhone 11 和 iPhone 11 Pro Max ,二者均具備超廣角和廣角鏡頭,適用於文中多數觀點,只有在涉及中焦鏡頭時,是 Pro 型號才能做到。
為保證文章內容不出紕漏,我還諮詢了一些業內朋友,在此向他們表示由衷感謝!
Let's roll~
一開始,我知道你們比起功能,或許更想聊(tu)聊(cao)這一代 iPhone 的外觀,特別是那 3 個巨大的攝像頭。
鑒於網上很多梗兒,我就不多說啥了,看張圖你就懂了:
我更想與你分享的,是很多人忽視的 iPhone 11 及 iPhone 11 Pro Max 外形設計。
一般來說,一台手機無論正面反面,越接近完全平面,給人的感覺越好。這就是所謂的「一體感」,用個成語就是「渾然天成」。
但在 iPhone 11 系列手機上,機身背面卻有 3 個層級。分別是手感非常出色的磨砂背蓋、光滑的玻璃攝像頭模組(大方塊)和三個略微凸起的攝像頭( iPhone 11 是兩個)。
看起來背面違背了簡約即是美的設計準則,但其實這一設計卻解決了一個問題:讓攝像頭顯得沒那麼凸起了。
「 這就像在華北平原和珠穆朗瑪峰之間,
加了個青藏高原來過渡,就不太突兀了。 」
特別是在安裝上手機殼後,三顆攝像頭看起來只是略微突出,甚至還會讓人覺得鏡頭的金圈有點高級……
3 層級設計減少了鏡頭的突出感
當然,這並不能弱化三個巨大黑洞給視覺上帶來的(負面)衝擊。所以喜歡完美外觀的朋友,選一個好看的手機殼可能會解決很大程度上的視覺焦慮。
在攝像頭增多之後,手機背面如何設計才更美觀,是目前困擾所有手機廠商的問題。我也還沒有看到在性能和美觀方面特別平衡的解決方案。
不過外觀並不是本文主要討論的,接下來才是關鍵:
「 即使你認為 iPhone 11 系列不好看,
但依然不能否認它拍照方面的強大。」
接下來,我會從三個方面來帶你進入 iPhone 11 與 iPhone 11 Pro Max 的拍照世界,它們分別是:
1、超廣角
2、算法
3、未來的思考
註:上面三張照片均由 iPhone 11 Pro Max 拍攝。
關鍵點
# 目前手機上最廣的等效 13mm
# 沉浸式體驗和超範圍拍攝
# 一致的三攝體驗
在 iPhone 11 和 iPhone 11 Pro / Pro Max 上,蘋果首次搭載了等效 13mm 的超廣角攝像頭(光圈 F2.4 ),視角達到了 120°。
「 這是目前你能在手機上獲得的最廣視角 」
相比之下,主攝的焦距為 26mm,這之間高達一倍的焦距差異,能帶來視覺上放大數倍的透視效果變化。
視角的差異帶來的是視覺衝擊力的絕大提升,與有限距離下拍到更多內容的可能性,甚至比主攝的全景模式所拍到的內容也相差不多。
由於蘋果在全景模式下也能使用超廣角,所以實際上還提供了拍攝更廣畫面的可能。
如何衡量超廣角攝像頭的好壞?邊緣畫質是非常重要的一項,也就是所謂整個畫面的均一性。
就這一點來說,iPhone 11 系列上的超廣角邊緣畫質相當出色。即使對比一些以超廣角見長的安卓手機,新一代 iPhone 的邊緣成像、像差控制方面也絕不遜色。
在這個對比中,你除了能看到 iPhone 11 的 13mm 比安卓上的 16mm 的視野還要更廣一點,還能看到二者在色彩方面的差異 —— 安卓更鮮艷,蘋果比較素雅。
當然只有將畫面放大才能看到更多細節,在畫面中心部分,安卓的銳度要更好(這款安卓機型超廣角為 1300 萬像素):
但到了考驗超廣角的邊緣上,iPhone 11 要明顯更為出色 —— 雖然有些顆粒,但沒有紫邊,暗部的房梁細節也更豐富。
所以不要只覺得 iPhone 11 系列只是加了個超廣角,而是應該看到它對畫面的控制達到了很高的水準,具備極高的完成度和實用性。
看幾張 iPhone 11 和 iPhone 11 Pro Max
超廣角拍攝的照片:
僅僅用來拍照還不算完全發揮超廣角攝像頭的潛能,蘋果比我們想得更多。
iPhone 11 系列手機利用超廣角攝像頭做了很多安卓廠商想做但是沒有做的一個功能 —— 沉浸式體驗。
「 沉浸式體驗 」
類似的嘗試在以往的安卓手機上也有出現過,也就是將取景畫面鋪滿整個螢幕。但那通常意味著對畫面的裁切,只能拍到 16:9 的非最高像素照片。
而在 iPhone 11 系列手機上,蘋果提供的沉浸式體驗則完全不同。它是將超廣角鏡頭所拍攝的畫面對齊並拼接到拍攝介面中,不剪裁,不影響照片解析度,還拓展了取景視野。
傳統拍攝介面:
沉浸式拍攝介面:
要實現這一步,需要同時讀取雙攝像頭數據、進行調色統一和圖像對齊,對手機處理器的計算能力有很高要求。
在此基礎之上,蘋果更進一步,為我們帶來了超取景框拍攝功能。
你需要在 「設置 - 相機」 中打開這一功能才能使用。它的作用是當你用主攝或 2× 鏡頭拍完一張照片後,可以在編輯中選擇更大的畫面範圍。
當然這一功能還是沒有直接用超廣角鏡頭拍攝的視角廣
舉個例子,對並不是很專業的攝影愛好者來說,通常是出門旅行回來,翻看照片時才發現有些建築沒有拍全,不夠震撼。這時已經不能再去補拍了。
那麼這一功能就能提供一個 「後悔藥」 ,在編輯照片時,選擇剪裁,然後用雙指縮放的手勢就能將畫面擴展到更大範圍。
換句話說,開啟這一功能後,每按一次快門,手機都會幫你多拍了一些畫面,不僅讓你多了一個超廣視野選擇,還能有更大的後期剪裁空間。
說起來容易,要實現這一功能,必須要做到所有攝像頭之間擁有統一的色調、細節表現。而這恰好是 iPhone 11 系列手機給我的另一個突出印象:
「 3 個攝像頭拍到的畫面風格極為一致 」
作為一個攝影師,即使沒有超取景框拍攝功能,我也通常會在每次拍攝時嘗試不同的焦距和視角。如果每個鏡頭的色調都不一致,那麼不僅會給後期修片帶來更多負擔,也會讓我在拍攝時感到困擾 —— 到底哪個攝像頭的顏色是正確的?
無論在雙攝的 iPhone 11 上,還是在三攝的 iPhone 11 Pro 和 iPhone 11 Pro Max 上,我用哪個攝像頭拍出的色調都幾乎一樣。
局部放大畫面,你會發現除了視角差異和曝光上的輕微不同(還有拍攝角度造成的內容變化),色彩傾向、雲層的過渡、質感都非常接近。
打個不恰當的比喻,這種統一的感覺,讓照片看上去就像是一張照片剪裁出來的一樣。
「 那麼,超廣角攝像頭有沒有缺點呢?」
聽我說了這麼多超廣角的優點,你一定會好奇上面這個問題。確實,iPhone 11 系列上的超廣角也並非沒有缺點。
比如,儘管蘋果對這顆等效 13mm 超廣角的校準已經達到了極高水準,但如果畫面中有平行線條,那麼在畫面邊角線條還是會出現一定的變形。
不過我覺得在這裡 iPhone 的表現已經很好了,畢竟即使相機領域裡,超過 14mm 的超廣角變形也很難做到一點畸變都沒有。而手機上這顆超廣角的物理焦距僅有 1.54mm ,要想做到完全沒有變形,要付出的成本代價恐怕是用戶不能接受的。
除了畸變,視頻拍攝時,如果設定為拍攝最高畫質的 4K 60fps 視頻,那麼三顆攝像頭只能各自獨立拍攝,而不能在錄製視頻中進行切換,看起來像變焦的介面,其實只是數碼變焦。
4K 60fps 時,每個攝像頭的變焦範圍都被限制了。
在 4K 30fps 及以下解析度時,雖然可以連續變焦,但在超廣角鏡頭切換到廣角鏡頭時,畫面會有一下跳躍。這在拍攝近距離物體時會更加明顯。
超取景框拍攝的照片雖然拼接和對齊非常到位,但是放大仔細觀看也會發現邊緣解析度不如中間,因為超廣角攝像頭的邊緣成像本質上還是弱於主攝:
好在這種解析度降低不放大看不出,所以通常並不會影響觀感。
最後一個問題是夜景。受限於 F2.4 的最大光圈和較小的傳感器尺寸,它的夜景成像效果不佳。而蘋果又沒有為超廣角搭載像主攝那樣驚艷的夜景模式(在算法部分會細說)之後,這更加突顯了超廣角攝像頭的夜拍短板。
有趣的是,目前第三方 App 已經支持了超廣角的夜景合成運算,並且效果提升明顯。
所以我還是比較期待蘋果自己能通過系統升級,早日讓超廣角也用上這一功能。畢竟,很多安卓手機均支持超廣角下的夜景模式(我用過的機型里華為、OPPO都可以),這是能通過算法來解決的。
而算法,正是接下來這部分的重點,也本文關注的核心要點。
在 iPhone 11 系列手機上,我見識到了蘋果強大的算法實力。引用一位業內朋友的話說:「這兩年安卓的算法這麼猛,但現在看了 iPhone 11 Pro 上的算法,發現你大爺還是你大爺……」
關鍵點
# 不再擔心曝光過度
# 驚艷的夜景模式
# 蓄勢待發的 Deep Fusion
其實剛剛提到的三攝照片風格統一,就已經屬於算法的範疇了,但在這部分,我為你展示的是 iPhone 11 系列手機上更令人驚訝的算法進步。
比如,對數碼攝影中最令人頭疼的曝光過度問題,我記得在評測 iPhone 8 Plus 時,做過下面這張對比圖:
iPhone 8 Plus 的年代裡,如果畫面中只有像雲邊那樣一點點過曝時,手機通常無法識別出來,需要你自己開啟 HDR 或降低曝光補償才能避免過曝。
巧合的是,在評測 iPhone 11 和 iPhone 11 Pro Max 時,我來到了同樣的地方,拍攝了相似的場景。
「 我發現,我只需要按快門就好了。」
即使雲層的高光依然只占畫面一小部分,手機也能很好的識別出來,並通過拍攝多張不同曝光的照片並各取最優部分,來減少曝光失誤、提升畫面表現。
放大畫面看,雲的細節非常豐富。
局部放大
但這還不夠厲害,接下來才是重點:
「 真正恐怖的是,這個算法是實時的。」
沒錯,所見即所得。無論視頻還是照片,就連 Live Photos(實況功能) 記錄的連貫動畫都是經過近似實時 HDR 計算的,沒有過曝。而前幾代機型上,實況的動畫通常是過曝的,只有最終拍下的那一張照片包含豐富細節。
之所以如此強調這一點,是因為對一張數碼照片來說,欠曝,也就是略微偏暗的問題,可以通過後期提亮來輕鬆解決。但過曝,也就是亮部失去細節變成純白,就沒辦法解決了。所以我才會在以往手機攝影課里專門講解何時、如何開啟 HDR 功能。
而如今,在使用 iPhone 11 和 iPhone 11 Pro Max 的近一個月時間裡,我驚訝的發現自己不必再在意是否開啟了 HDR ,甚至用到曝光補償的次數都比以前少了。
少數有曝光過度的照片之一,其實任何拍攝工具來說這場景都很難做到沒有過曝。
我還特意用 iPhone 11 Pro Max 與某台旗艦安卓手機進行了逆光場景對比,你可以看看在沒有任何人為干預的前提下(不用手碰高光部位進行測光,不使用曝光補償,不強制開啟 HDR ),完全用自動模式拍出的兩張照片:
好像都不錯?放大畫面中心最容易產生過曝的部分,你就會發現二者的差別非常明顯:
客觀的說,對於有經驗的攝影愛好者來說,遇到上面的場景,無論用什麼機型,只要做簡單的降低曝光補償的操作就能搞定。
但對那些並不了解攝影,特別是那些連曝光過度是什麼的普通用戶來說,iPhone 11 系列手機對過曝的降低就顯得非常友好了。
但這僅僅只是 iPhone 11 系列手機上算法的冰山一角,更強大的在後面。
「 我手持 iPhone 11 Pro Max 拍攝了星空 」
看到上面那句話,你肯定會覺得是騙人的。事實上我在拍攝之前,也不太相信有手機能做到手持拍攝星空。
但你看看下面的錄屏視頻就會明白我所言非虛:
而這就是手持拍攝的畫面效果:
有明顯的顆粒感和降噪痕跡,但星點很清晰,並且沒有抖動。
如果你將手機固定於更穩的三腳架上,曝光時間還會進一步延長(最長可達 30 秒)以獲得更好的畫質:
所以我後來又直接多拍了一些照片,合成了一張手機星軌作品:
詳細星軌教程之後會做單獨推送
提到星空、星軌,很多人會和我一樣,覺得這是某些安卓手機的專長,在 iPhone 上是不可想像的。而現在,iPhone 11 和 iPhone 11 Pro 就能做到了。
當然,對多數人來說,並不會經常拍攝星空題材,我們常拍的是下面這樣的城市夜景:
此時自動開啟的夜景模式效果也相當明顯:
特別是對畫面中原本較暗的區域,夜景模式的細節增強和提亮作用非常顯著:
值得注意的是,iPhone 11 系列上的夜景模式是自動開啟,白天不能使用。
當拍照介面頂部出現這個圖標時,說明夜景模式已經開啟了。
開啟後,點擊夜景圖標還能手動關閉或延長拍攝時間。
快門按鈕上方的標尺可以滑動
那麼,這個神奇的夜景模式是什麼原理呢?我們不妨先來看一張使用 iPhone 11 Pro Max 夜景模式拍攝的照片:
當時小娃在玩木馬,雖然沒有很劇烈的搖晃,但也絕不是靜止不動的。在以秒為單位計算的夜景模式拍攝結束後,得到的畫面竟然是人物和背景都基本清晰。
顯然,如果你把夜景模式等同於相機上的長時間曝光,那麼上面的圖片是不可能獲得的。
事實上,我通過上面的圖片大致推斷了一下 iPhone 11 和 iPhone 11 Pro Max 上的夜景工作流程,從中你可以發現算法起到的關鍵作用:
值得注意的是,整個過程中,拿著手機的人只做了兩件事:進入拍照模式,按下快門,其他一切都由手機搞定了。
並且,一切幾乎都在瞬間完成。即使長達 30 秒的拍攝,也沒有漫長的運算等待時間,而是直接可以拍攝下一張 30 秒的夜景照片。
因此,我才能一張張連續拍攝,直到最後將所有照片素材合成為沒有斷點的星軌照片。
連續不間斷拍攝的星空照片
需要強調的是,手機上的算法是在你按快門之前就已經開始運算了,而在整個拍攝的過程中,其實手機並非像相機那樣拍攝單次曝光的單幀畫面,而是連續拍攝了多幀照片。這樣的好處是避免長曝光的抖動,並獲得足夠多的「正確」信息。
說起來輕鬆,哪些是「正確」信息,哪些是噪點和抖動模糊的無用信息,要完全判斷出來並不容易。這裡面 iPhone 11 一代搭載的 A13 仿生處理器和第三代神經網絡引擎功不可沒。
這就是算法的魅力,即使傳感器只有指甲蓋大小,並不擅長星空拍攝,甚至沒有三腳架輔助,也能拍出不錯的效果。
當然,算法本身是人來寫的,即使是機器學習技術,也需要人來指明方向。就好像你需要告訴人工智慧,哪些照片是好看的,哪些不好看。人工智慧才能以此為審美基準完成自我進步。
「 好像漏了什麼?Deep Fusion呢? 」
算法這部分到這裡就結束了,原因是我沒能等到 iOS 13.2 ,也就沒等到 Deep Fusion 功能開放。
雖然目前有 beta 版可以試玩,但我始終覺得如果不是正式版,那麼一切就還都不算數。所以,關於能極大提升圖像細節表現力的 Deep Fusion 功能,等更新之後我會再做文章來介紹,並且會與 6400 萬像素的安卓手機來 PK 一下~
「拍照片,就是按快門。」
「底大一級壓死人。」
「硬體不行,畫質就差。」
這 3 句話,
在如今的手機上都需要打個問號。
這是以往我們認為的真理。但是隨著手機攝影的興起,為了突破手機方寸之間的限制,人們通過對算法的探索與完善,開創了一個嶄新的算法攝影時代。
在這個算法攝影時代,傳統意義上的按快門僅僅是決定一個畫面中應該有什麼的標準,而不能完全決定最終畫面的效果。甚至快門的長短都不能與最終畫面直接掛鉤,而是取決於算法處理的效果。
像文章開始的這張作品,就是先用了人像模式,再結合後期修片才實現的。
換句話說,你是否能獲得滿意的照片,除了取決於你的審美、技術和手機硬體的規格外,更加要仰仗於那些編寫算法的工程師,以及日益強大的人工智慧。
記錄豐富的層次,並非純靠大尺寸的傳感器。
「 你以為拍的是一張照片,
其實它是由很多張照片各取優點合成的。」
而這張照片的好壞,也不僅取決於傳統數碼攝影三要素中的感光元件、處理器和鏡頭,更取決於手機算法攝影時代新的三要素:
算法攝影 3 要素
1 傳感器刷新率 - 是否能在瞬間採集足夠多不同曝光參數的畫面用於合成
2 AI算法 - 是否能正確判定不同畫面中的最優部分,是否有足夠好的美學導向
3 處理器運算能力 - 是否能在一瞬間完成上述計算處理工作
iPhone 11 系列手機的強,就是因為做到了上述 3 點。但這一觀點並非僅針對 iPhone 11 系列手機而言,對於華為、vivo、OPPO、小米和三星等等手機廠商都是如此。只有更多手機和相機廠商,以及更多用戶認識到算法對於攝影的意義,才能推動影像產品的進化與易用化。
「 iPhone 11 系列手機只是算法攝影的一個代表,
當然,它是非常令我滿意的一個代表。」
啊,打了這麼多字,最後我們來休息下,看一些作品吧,畢竟攝影是一件讓人身心愉悅的事情~
以下均為 iPhone 11 Pro Max 拍攝
Snapseed / Mextures 修片
最後,再補充一些前面沒有提到,但是你可能會感興趣的觀點(個人觀點):
- iPhone 11 Pro Max 的螢幕效果非常出色,亮度夠高、色彩夠准、細節夠豐富。
- 人像模式沒有太大進步,尤其是邊緣識別摳圖方面。
- 新增的白色背景人像光效模式(高調單色光)比較挑被攝對象,不是所有人都能 Hold 住。
- 視頻拍攝效果出色,還具備音頻變焦功能。
- 視頻可以直接剪裁併調整透視效果。
- 沒有 3D Touch ,這點我很不習慣。
- 電池續航確實增強了許多。
- 外放聲音的音質似乎有所提升,但我沒作對比。
- 鬼影確實存在,手機鏡頭的光學設計導致的。也是因為成本所限,沒法像相機鏡頭那麼出色而已。安卓和蘋果手機都有,以後有時間我可以聊下如何避免拍出鬼影。
- iPhone 11 和 iPhone 11 Pro 如何選?如果你預算充裕,那麼 iPhone 11 Pro 是更好的選擇。當然,嫌棄螢幕小的話, iPhone 11 Pro Max 能讓你的眼睛獲得更大的滿足。畢竟,目前在我用過的手機中,iPhone 11 Pro Max上的螢幕應該是最好的(很可能沒有之一)。
以上,這就是今年的 iPhone 新機評測,不追求最快,只追求最美,以及最深入獨到的見解,是我不變的宗旨。
之後 Deep Fusion 功能更新後,我應該還會做關於像素的進一步對比,敬請期待~
—— 2019 年最晚/最美 iPhone 11 系列手機評測