iPhone 13シリーズの「シネマティック」モードが予想以上に面白かったのである。

 Apple(に限らないけど)がその機能をどのくらい使ってほしいか、あるいはどのくらい力を入れているかはアプリを見ると分かる。何らかのメニューの中ではなく、写真、ビデオと並んだ位置に「シネマティック」があるのだ。「日常的に使ってね」って機能なのである。

●シネマティックでぼけを楽しめ

 iPhone 13のカメラで動画を撮ると、どうしてもパンフォーカス気味になる。ピントの合う範囲が広いので、至近距離の被写体を撮るときは背景がボケるけど、1mも離れた被写体を撮ると背景にまでざっくりピントが合ってしまう。

 それが当たり前って感じで多くの人は慣れてしまっているのだけど、そこに一石を投じようというのがシネマティックモードだ。何しろ、ピントを合わせた被写体の前後がボケて「被写体が強調される」(見る人の視線をそこに誘導できる)のである。

 試しに撮ってみたのがこちら。シネマティックモードで撮った3本の短いクリップを「iMovie」でつないでみたもの。

 なんとなく分かってもらえたかと思う。人が大勢いても最初に捕まえた顔を追いかけてくれているし(改札から歩いてくるところ)、後ろ姿でもちゃんと捉えてくれるし、メインの被写体がいなくなると背景にフォーカスがすーっと移動している。

 いったい何が起きているのか、どんなシーンで使えるのか、気になるよね。というわけでいろいろと試してみる。

 実際にシネマティックオンとオフでどのくらい違うのか。シネマティックで撮った動画は後からボケ具合を調整できるので、それを利用して「一番ぼかしたもの」と「ぼけの処理を加えてないもの」を比較しよう。

 シネマティックで撮った方が圧倒的に背景がきれいにぼけていて、人物に目が行く。シネマティックというと「映画っぽい映像を求めない人には不要」って思われそうだけど、これなら誰が使っても楽しそうじゃないか。

 で、シネマティックモードでは何をやっているのか。よく、静止画の「ポートレート」モードの動画版という言い方をされる。静止画のポートレートモードでは2つのカメラ(超広角と広角、あるいは広角と望遠)の微妙な視差を利用してカメラと被写体の距離の情報を持ち、その深度情報を持って背景をぼかしている。

 シネマティックも同じなのだけど、違うのはそれを「1秒間に30枚」分処理し、しかも常にフォーカスの対象がどれなのかを認識し、その上前景にもぼかし処理をいれているのだ(ポートレートモードでは背景のみ)。最新プロセッサのA15 Bionicパワーさく裂だ。

 そしてこの機能が面白いのは「どこにピントを合わせるかもiPhoneまかせでOK」ってこと。顔に合わせるのはもちろんのこと、後ろ頭でもOK。

 複数の人がいるときは自動的に切り替えてくれる。例えば、近くにいる後ろ頭の人より向こう側の顔が見えている人を優先。でもでは手前の人が振り返って後ろ頭になると、その向こうにいる人物に切り替わるという映画的な振る舞いをみせてくれる。

 また、構図に人物が入ってくると即座に切り替わる。これがまた素早くて面白いので「電車を撮っていたらたまたま通りがかった人にピントを奪われた動画」を撮ってみた。フレームに人が入ってくる瞬間にはもうピントが切り替わっているという速さに注目。めっちゃ素早い。

 被写体は人間じゃなくてもいい。今のiPhoneのカメラは犬や猫といった動物も認識してくれるわけで、シネマティックでも同様なのだ。ヤギでもOKである。これは3倍の望遠で撮ったもの。

 シネマティックモードで使えるカメラは1xと3xのみ。視差を利用した深度情報が必要なので0.5xには未対応で、デジタルズームにも対応してない。この辺はポートレートモードと同じだ。せっかくなので、シネマティックヤギをどうぞ。何回かは鳴き声も入っています。

 撮影時に画面をタップするだけでフォーカス相手を変えることもできる。写真アプリで「編集」を実行するとそのときどこにフォーカスが合っていたかを教えてくれるのでそれでチェックしてみたい。

 まずは動画。これ、自動的に彼女の頭にフォーカスが来る。シャボン玉マシンを構えたところで機械をタップしてそこにフォーカスを移し、最後は背景の木に持っていって、シャボン玉の行方を強調するという流れだ。

 これを写真アプリで見ると、その時点でどこにフォーカスが合っていたかが分かる。

 しかもこのシネマティックモード、編集後にフォーカスを変えられる。

●編集後にフォーカスやぼかし量も変えられるのだ

 編集時のぼかし具合や、ぼかす対象を変更できるのもウリの1つだ。うまくいかなかったらここでぼかす具合をゼロに、つまりF値を16にすればごまかせる。

 ポートレートモードはぼかし具合を変えることはできてもフォーカスする被写体は変えられないから、なんかシネマティックすごい。では先ほどの「電車を撮っていたのに邪魔された」動画で試してみよう。

 写真アプリで「編集」をタップすると、シネマティックのフォーカスポイントを編集できる。指でスライドしながら丹念に見ていくと、この「服の端っこが見えた」瞬間にフォーカスが電車から人物に写ったことが分かる。すごいね。

 そこでここで背景の電車をタップ。

 こんな感じでチェックしながらフォーカス位置を指定し直していくと、背景にフォーカスが合い続ける動画に直せるわけである。ただし、あまりに小さな被写体だとうまく合わないので注意。

 また、絞り値を「F2.8」から「F16」にするとパンフォーカス状態(つまりシネマティックな処理をしていない状態)になる。逆に「F2.0」にするとボケる範囲が広くなる。

 現在、シネマティックで撮った動画に対してこのような編集をできるアプリは「写真」アプリと「iMovie」のみ。サードパーティーのアプリが対応するとまた面白いことになりそうだ。

 PC上の動画編集アプリに関しては、macOSではあるが「iMovie」と「Final Cut Pro」が対応予定だそうである。そうなるとまた面白くなる。「シネマティック」が「ビデオ」とは別モードになっていることで、凝った映像を撮りたいときに使うもの、ってイメージになるかもしれないけど、日常的に使ってもめちゃ面白い。

 撮影時の手ブレ補正もよく効くし、使う側が何も指定しなくても、ほぼほぼ撮りたいものにフォーカスを合わせてくれるし、その気になればあとからいくらか修正できるし。しかもシネマティックはiPhone 13シリーズの4機種全部で使えることと、インカメラ(FaceTimeカメラ)でも使えるのがいい。

 新機能って、一部の人しか喜ばなかったり、最初は面白がって使っても多くの人は飽きちゃったりってことがあるけれども、シネマティックは定着しそうな気がする。

 なお、シネマティック利用時は「1920×1080ピクセルの30fps」に固定される。個人的には「シネマ」というくらいだから「24fps」固定にしても面白かったのに、とは思うけど。でもって4Kには現在のところ未対応なので(A16 BionicとかA17 Bionicの時代にはいけるかも)、動画は4Kだぜって人は要注意だ。

 シネマティックモードだとどういう振る舞いをして、どんな動画を撮れるのかをあれこれ見てきた。面白いのでiPhone 13を買った方、特に撮りたい人やペットがいる人は挑戦すべし。

モデル:長谷川実沙