Googleは12月19日、スマートフォン「Pixel 4」のカメラ機能を解説する記者説明会を開催。Google Distinguished Engineerのマーク・レヴォイ氏が「HDR+」「ポートレートモード」「超解像ズーム」「夜景モード」の4項目について、その要素技術を説明しました。
まずはHDR+から。従来のHDRは露出を下げて撮影したハイライト部分と露出を上げて撮影した影の部分を合成する"露出ブラケット"を利用したもので、手ブレや被写体の動きがあると画像の整合性を取るのが難しく、白とびが発生しやすいという問題がありました。GoogleのカメラのHDR+撮影では、露出不足の状態で連射した写真を合成することにより影の部分は暗くなり、白とびを回避。さらに階調を調整するトーンマッピングにより、影を強調してエッジ部分のコントラストを高くできます。
作例を見ると、HDR+の写真は白とびがなく、影がくっきりと見えることが分かります。スマートフォンによる撮影では、ディスプレイがカメラで言うビューファインダーの役割を果たしますが、ビューファインダーの像を人間の目に見える実像と近い状態で表示できる"Live HDR+"の機能を利用できるのがPixel 4の特徴。機械学習による近似値を利用して見た目の実像に近づける技術ですが、「WYSIWYG(What You See Is What You Get、ディスプレイで見たままに結果が得られること)で見られるビューファインダー」と表現しています。