Live2Dモデルの動かし方を詳しく解説します。この記事では、Live2Dモデルの制作から実際の動作に至るまで、ステップごとに説明します。
Live2D Cubismでのモデル制作
Live2Dモデルを動かすためには、まずモデル自体を作成する必要があります。この作業はLive2D Cubismというソフトウェアを使用します。キャラクターの各パーツを分け、それぞれに動きをつけるプロセスです。
モデルデータの準備
最初に、Live2D用のイラストを準備します。イラストはPhotoshopやClip Studio Paintなどのソフトで描かれ、目、口、髪、体などのパーツごとに分割されたPSDファイル形式で作成します。この分割されたファイルは、Live2D Cubismにインポートされ、動きの基礎を作るために使われます。
※Live2Dで編集を行うにはソフトをダウンロードする必要があります。以下の公式サイトでソフトを購入することでダウンロード可能です。
デフォーマーの設定
デフォーマーは、モデルの各部位を動かすための「骨格」のような役割を果たします。目や口などのパーツを自然に動かすために重要な役割を担います。例えば、目のデフォーマーを設定すると、キャラクターのまばたきや視線の移動がスムーズに再現されます。
パラメータの設定
モデルを動かすためには、パラメータを設定します。パラメータは、特定の動作(例:目の開閉、口の動きなど)をコントロールするためのもので、動きを滑らかにするためにキーフレームを使います。これにより、目や口、体の動きにリアリティを持たせたアニメーションが実現します。
VTube Studioでのモデル動作
Live2D Cubismで完成したモデルは、VTube Studio等のリアルタイムでキャラクターを動かせるソフトウェアを使用して動作させます。
モデルのエクスポート
Live2D Cubismで作成したモデルは、最終的にエクスポートされ、FaceRigやVTube Studioで使用されます。エクスポート時には、モデルデータは.moc3
や.model3
という形式で出力され、これに加えてテクスチャやモーションデータ(.motion3)も合わせて保存します。
VTube Studioへの読み込み
エクスポートしたモデルデータをVTube StudioやFaceRigに読み込みます。これらのソフトウェアはウェブカメラを使って顔の動きをトラッキングし、そのデータを基にLive2Dモデルが動作します。顔の向きや表情に応じて、モデルの顔がリアルタイムで動くようになります。
キャラクターの動作設定
モデルが読み込まれたら、実際にキャラクターを動かすための設定を行います。
フェイストラッキング
VTube StudioやFaceRigでは、ウェブカメラが表情や頭の動きをトラッキングし、それに基づいてLive2Dモデルが動きます。目の動き、口の開閉、眉の動きなど、細かい表情までリアルタイムで再現できます。
ボディモーションの追加
キャラクターが体全体を動かす場合、ボディモーションを追加で設定します。キーボードやコントローラーを使用して、特定のジェスチャーやアクションを行うことも可能です。
カスタムモーションの作成
特殊なポーズやアクションを作成したい場合、Cubismでカスタムモーションを作成し、VTube StudioやFaceRigにインポートすることで、オリジナルの動きを追加できます。これにより、キャラクターに多彩な表現力を持たせることができます。
Live2Dモデルを実際に動かす
全ての設定が完了したら、Live2Dモデルを実際に動かしてみましょう。配信や動画撮影中、ウェブカメラに映る自分の表情や動作に基づいて、リアルタイムでキャラクターが動きます。これにより、VTuberとしての活動や、アニメーション制作が簡単に行えるようになります。
まとめ
Live2Dモデルを動かすには、Cubismでのモデル制作からトラッキングソフトへのインポート、そして実際のフェイストラッキングまで、多くの工程がありますが、各ステップを順番に行えば、スムーズにキャラクターを動かせるようになります。これからVTuber活動やキャラクターアニメーションに挑戦したい方は、ぜひLive2Dモデルの制作にチャレンジしてみてください。