![]() ![]() |
![]() ![]() |
![]() ![]() |
![]() ![]() |
![]() ![]() |
![]() ![]() |
![]() ![]() |
![]() ![]() |
![]() ![]() |
![]() ![]() |
![]() ![]() |
![]() ![]() |
海苔好きさんから動画制作についてのコメントがありましたので、蛇足を承知で‥ まず、8Kカメラについてですが、 撮影後に編集でクローズアップをする際には、画素数が多いほど有利ですから、8Kカメラはとても魅力的ですが、まだ、これだ!と言える機種は出ていないと私は考えています。 海苔好きさんは、あえてリスクを承知で使っておられるのかもしれませんが、私がこのように考える理由は次のとおりです。 ひとつめは、放送局用などの特殊なものを除けば、動画撮影時間が無制限の8Kカメラは、まだないことです。 SONY や Canon のフルサイズ・センサーのデジタルカメラ最上位機種も8K動画撮影が可能になっていますが、最長で、約30分。 ご紹介の FUJIFILM X-H2 のセンサーサイズは APS-C と、フルサイズより小さい(面積比 約 0.43)ので同列比較はできませんが、商品説明によると、動画撮影時間は、最長で2時間20分程度。 一般的な演奏会ならカバーできそうに思いますが、取扱説明書によると、温度上昇によって途中でストップしたり、映像ノイズが増えたりする可能性があるとのこと。業務用途には、リスキーです。ちょっと怖い。 ふたつめは、センサーサイズが、APS-C (23.6×15.8mm)で、演奏会などの動画撮影用途に限って言えば、少々大き過ぎるのでは、と思われる点です。 私の経験上、演奏会などの動画撮影に適したセンサーサイズは、最大でも「フォーサーズ」(17.3×13.0mm)だろうと考えています。その理由は、被写界深度です。 センサーサイズが大きいほど被写界深度が浅くなって、ピントの合う遠近の範囲が狭まります。 ピントを合わせたい対象がピンポイント、かつ動かないなら問題はないですが、被写体が動いている、遠近の幅がある、どの場所にもピントを合わせ続けたい、という場合は、無理が出る可能性があります。 絞りを絞れば被写界深度は深くなりますが、レンズの焦点距離(画角)により、ピントを合わせられる遠近の幅には限界があります(レンズの望遠域ほど、より厳しくなる)。 もし、現場の明るさが十分でなければ、感度設定やフレームレートとの関係でスローシャッターに対応できない、という可能性もゼロではないでしょう。 また、ステージの後方から客席方向に向けて奏者を俯瞰して撮影するような例では、カメラのすぐ手前(舞台奥)の奏者と客席近くの奏者や指揮者の両方にピントが合わなくてはならず、このような場合は、もう絞りの調整では対応不可能です。 民生用ビデオカメラやスマホによく使われている小さな「1/2.3」(6.2×4.6mm)や「1/2.5」サイズでなければ対応できません。 業務用のビデオカメラ(肩乗せでないハンディタイプ)の多くが「1型」(13.2×8.8mm)のセンサーサイズ(フォーサーズに対し面積比 0.516)を採用しているのは、画素数(画質)と適度な被写界深度のバランスが取れているからでしょう。「ピンボケ」のリスクが低いわけですね。 「1型」で画素数が8Kという製品が登場するまでには、またまだ年月がかかるでしょうが、フォーサーズの画素数8Kは、あと数年くらいで出てきそうに思います。 もうひとつ、必須だと思う機能は、Log 撮影が可能かどうかです。 依頼を受けた演奏会の収録業務では、複数台のカメラを使って撮影しますが、たとえ同一メーカーでも、機種が違えば色味が違った映像になります。メーカーが違えば、なおさらです。 そこで編集時に色調を調整するわけですが、同じ色合いに揃えるのは困難なことが多いです。 Log 撮影をしておくと色調の調整が容易になり、ほぼ揃えることができます。 そういうわけで、Log 撮影やそれに準ずる機能がない機種には、今では購買意欲が湧かなくなりました。 次に、コンピューターについて。 海苔好きさん、コンピューターの更新、大成功ですね。おめでとうございます。以前の機種とは格段の性能差があると思います。 そこで、一般論ですが、CPU の性能と動画編集アプリについて、私の経験をコメントさせていただきます。 まず、CPU の論理コア(スレッド)数が多いことは性能の指標にはなりますが、無条件に処理速度に比例しているかというと、そうではないようです。 というのも、動画編集アプリのアルゴリズムがマルチコア CPU の能力をどの程度、効果的に活用しているか、という問題があるからです。 もし、コンピーターに「リソースモニター」の機能があれば、試していただくとよいのですが、編集作業中に CPU のどの論理コアが一生懸命、働いているか(稼働率)を見ると、すべての論理コアが均等に稼働しているのではないことが判ります。 もっとも処理速度の速い、つまりターボブースト機能が働く1つか2つのコアに集中して稼働率の高い状態になっています。ほかのコアは、ほぼお休みに近い状態です。 この状態では、処理速度はコア数ではなく、ターボブーストが働いているコアの個数と周波数の高さに依存することになります。CPU のベース周波数とターボブースト周波数のほうが、より処理能力を表しています。 もし、動画編集アプリが、編集タスクをすべての論理コアを使って、均等に処理できるようにしていれば、逆に論理コア数の多さがダイレクトに効くということになります。 つまり、マルチコアを活かすのは、アプリのアルゴリズム次第ということですね。 アプリや処理タスクの種類によっては、まだまだ、マルチコア CPU の性能は発揮できていないのでは? というのが私の経験上の観測です。 ご参考までに、私が今使っている動画編集アプリは、EDIUS X(10)Proですが(現在の最新版はEDIUS 11Pro)、マルチコア対応と歌ってはいても、上述のように通常、 CPU の稼働は、ターボブーストのコアに集中します。 しかし、このEDIUS 9 Pro から X(10)Pro になって以降の優位点は、レンダリングやエクスポートをバックグラウンドで並行処理できるようになったことです。 つまり、レンダリングやエクスポートをしている最中でも、画面はロックされずに、別の編集作業を継続してできます。以前の処理完了まで何時間も待機を強いられる時間のムダがなくなりました。バックグラウンドのタスクに、マルチコアのメリットを活かしているようです。 レンダリングにビデオカード(GPU)の処理能力を活用できるアプリなら、さらに良いですね。 [No.693] 2023/12/15(Fri) 21:30:13 |
この記事への返信は締め切られています。
返信は投稿後 30 日間のみ可能に設定されています。