photo

今週、iPhone 12 miniとiPhone 12 Pro Maxが発売となりますが、それに先立って、アップルの幹部らがiPhoneカメラの設計哲学を語っているインタビューが公開されています。

アップルのカメラソフトウェアエンジニアリング担当副社長ジョン・マコーマック氏と製品ラインマネージャーのフランチェスカ・スウィート氏は、カメラと写真専門メディアPetPixelにiPhone用カメラ開発の背後にあるビジョンとデザイン哲学を述べています。

その全体像を語る上で、アップルはカメラ開発を一元的に、ソフトウェアとハードウェアを一体として考えていることをあきらかにしています。すなわちセンサーとレンズだけでなく、A14Bionicチップから画像信号処理、コンピュテーショナルフォトグラフィー(コンピューターにより処理・生成される写真一般)の背後にあるソフトウェアまで、あらゆるものを統合しているというわけです。

その主な目標としては、人々が自分の暮らしを活き活きと過ごすなかで、技術にとらわれずに人生の瞬間を捉える写真を撮れるようにしたいとのこと。本来はISOや被写体の動き、その他の要素を考える必要があるところを、マコーマック氏は「アップルは人々がその瞬間に集中し、素晴らしい写真を撮り、ふだんの生活に戻れるよう、そうした必要を取り除きたいのです」と語っています。

またマコーマック氏は「より本格的な写真家」に対しても配慮していることを強調。「写真家が撮影の際にしていることをできる限り複製しています」と続け、撮影を「露出」とその後の「現像方法」の2つの側面に分割。その上で「我々は露出に多くの画像処理を使っていますが、現像でも自動的により多くの処理をしています。その目的は、人生に忠実に見える写真を作り、実際にそこにいた体験がどんなものであったかを再現すること」と述べています。

より興味深いのは、機械学習が写真を「背景、前景、目や唇、髪や肌、衣服や空」といった要素に分割して、個別に処理していると説明するくだりでしょう。「これらを(アドビの)Lightroomでローカルに調整するように独立して処理」して「露出、コントラスト、彩度などすべて調整し、それら全てを一枚の写真に組み合わせる」とのことです。

かたやスウィート氏は、iPhone 12シリーズ全般でナイトモードが改善されたことにもコメントしています。いわく「新しい広角カメラや改良された画像融合アルゴリズムは、ノイズの低減と細部の完全を実現します」とのこと。特にiPhone 12 Pro Maxでは「大型化したセンサーにより、より短時間でより多くの光をキャプチャできるため、特に夜間撮影のブレが改善されています」と語られています。

そして年末までに追加予定のApple ProRAWフォーマット(12 Proと12 Pro Maxのみ対応)についても、コンピューテショナルフォトグラフィー処理結果を従来のカメラRAWに追加することで、写真家が画像を完全に制御できるよう配慮したとの考えも語られています。

ほかA14 Bionicの処理能力や機械学習を写真撮影に活用する思想が色々と語られているため、興味のある方は原文に当たることをお勧めします。

Source:PetaPixel

Via:9to5Mac