CARA VRでのVRコンテンツへの3Dオブジェクトの合成方法[パート1]

※使用しているNUKEのバージョン:NUKEX 10.0v4
使用しているCARA VRのバージョン:CARA VR 1.0v3

こちらの記事では、NUKECARA VR を使用して、実写のVR素材と、3Dのオブジェクトの合成を行う方法を2回に分けて紹介致します。

02_cara

※フッテージ提供:VoltFX社(Credits: Footage provided by VoltFX.)

 

▼CARA VRの概要

CARA VRは、NUKEと同じThe Foundry社製品の一つで、NUKE専用のVRプラグインツールセットです。360度のシーケンスのステッチングや自動色調補正、360度シーケンスに対応したトラッカー等のノードが含まれており、通常のNUKEのノードと組み合わせて使用することができます。

 

▼目標

NUKE内でCARA VRの機能を使用し、実写のシーケンスと、3Dオブジェクトの合成を行うことです。

 

▼今回の内容

今回は、実写のフッテージを合成するための設定と、3Dオブジェクトを合成するためのカメラの出力までを簡単に紹介致します。

02_cara

 

▼カメラリグの解析

まず、複数のカメラで撮影したフッテージをReadノードで読み込みます。

ContactSheetノードで一列に並べた画像がこちらです。

04_cara

 

これらの撮影されたフッテージからカメラリグの位置関係の解析を行います。フッテージをすべて選択した状態でC_CameraSolverノードを作成します。

06_cara

撮影したカメラの設定が確認できている場合は、以下の画像の[Input]の項目で設定を行います。該当するプリセットがある場合は[Preset]から選択します。[Match]で特徴点を検知し、[Solve]で解析し、解析結果によって各画像が展開されます。

09_cara

10_cara

この時点では天地の認識がないため、水平線の設定をします。設定は、C_CameraSolverノードの中で行えます。

12_cara

 

 

▼360度フッテージの調整

続けて、C_ColourMatcherノードを接続します。[Analyse]ボタンを押すだけで、以下の画像のように、カメラ間の露出の違いを自動で補正することができます。

15_cara

 

さらに、C_Stitcherノードをつなぎ、各カメラ間のステッチングを行います。こちらも、ある程度自動で行われます。必要に応じて、各カメラ(ビュー)の情報を抜き出して、通常のNUKEのノード(RotoやSplineWarpノード)を組み合わせて、ある一部分に対して修正することができます。

17_2_cara

 

また、以下の画像の赤枠部分のみをC_SphericalTransformノードを使用することでLat-LongスペースからRectLinearスペースに変換します。これにより、通常のNUKE(NUKEX)ノードが使用できます。

カメラプロジェクションを行い、消し込みを行った後、再度C_SphericalTransformノードでLat-Longスペースに変換して、元のフッテージと合成することで、360度フッテージのクリーンプレートを作成します。

20_cara

 

 

▼カメラの出力

カメラリグは、最初のC_CameraSolverノードから出力することができます。[Export]の[Cameras]から以下のようなリグを出力することができます。

22_cara

 

 

▼動くカメラリグ用のカメラトラッキング

カメラリグが動く場合、重要なのはそのカメラの動きのみです。どの位置にカメラがあるかは、あまり重要ではありません。基本的には、C_SphericalTransformノードを使用し、NUKEXのCameraTrackerノードで単一のカメラのアニメーションを取得します。

24_cara

そして、3DCGソフトウェア側のレンダリングはSphericalモードで行います。

 

次回は、最後に取得したカメラを利用した3DCG側の内容と、NUKEへのインポート、合成について紹介する予定です。