自己紹介とアジェンダ紹介

森本拓弥氏:本日は「キャラクターにリアルな動きを!〜モーションキャプチャースタジオの体制・ゲーム&生配信 制作事例紹介〜」というタイトルで発表します。

こちらが、アジェンダです。まずはじめに、自己紹介とスタジオ設立の経緯をお話しします。「モーションキャプチャースタジオ紹介」では、スタジオ概要をはじめに、開設からの歩み、業務フローなどを紹介します。「スタジオ独自の取り組み」紹介では、独自開発した収録方法や遠隔ディレクション、編集用ツールを紹介します。「プロジェクト事例」では、3つのプロジェクトの収録事例を紹介します。最後に振り返りとしてまとめを行います。短い時間ではありますが、どうぞよろしくお願いします。

はじめに、自己紹介とスタジオ設立経緯を説明します。

最初に登壇者の自己紹介です。森本拓弥。所属はデザイナー部3DCGアーティストチーム モーションキャプチャースタジオです。2019年にCygamesに合流し、モーションキャプチャースタジオのスタッフとして、収録、データ編集、ツール開発、機材選定などを行っています。

モーションキャプチャースタジオを設立した理由と得られたメリット

モーションキャプチャースタジオを紹介する前に、モーションキャプチャーについてすごく簡単に説明します。モーションキャプチャーは、人やモノの動きをデジタル化する技術のことを指します。Cygamesでは具体的に、3DCGモデルに対して人の自然な動きを反映するために利用しています。

モーションキャプチャーを録るためには、当たり前ですが、そのための設備が必要です。Cygamesでは当初、外部のモーションキャプチャースタジオに協力をしていただいて収録を行っていました。

しかし、収録頻度が増えるに連れ、「収録のたびに外部のスタジオに訪問しないといけない」「交通費・移動時間」「録りたい日に予約が取れない」などの事項が重なるようになりました。それならばと、今後もモーションキャプチャーを使う頻度が社内で見えていたこともあり、モーションキャプチャースタジオを設立することになりました。

社内だからできたメリットはこの5点です。「移動時間の削減」「収録予定日の調整がしやすい」以外にも、3つのメリットが得られたと感じています。

1つ目は、社内サーバーからプロジェクトデータを参照できるため、収録日にデータ更新などがあれば、すぐにそこで更新ができることです。データが足りない場合でも、楽に用意ができます。2つ目は、手軽にデータの受け渡しができることです。データの受け渡しも社内サーバーで完結できるのが強みです。3つ目は、独自のシステムが構築できることです。こちらはプロジェクト事例の際に紹介します。

東京モーションキャプチャースタジオの紹介

それではモーションキャプチャースタジオの紹介に移ります。Cygamesのモーションキャプチャースタジオは、東京と大阪の2つにあります。大阪は2021年に開設予定で、世界最高クラスのモーションキャプチャースタジオができる予定です。大阪の話は、また別の機会にするとして、本セッションでは東京のモーションキャプチャースタジオと事例を紹介します。

スタジオのスペック紹介です。スタジオ設立は2018年で、2021年で4年目となりました。Cygamesでは、光学式モーションキャプチャーのVICON製品を使って運営しています。カメラは最高機種の「Vantage V16」を72台使用し、収録エリアは9m×16m×3mとなっています。国内でもトップクラスの大きさを誇る社内モーションキャプチャースタジオです。

スタジオの特徴の1つとして、映像切替が楽に行えることが挙げられます。収録エリア外に埋め込まれた10個の映像入出力ポートから、ビデオカメラの入力やパソコン画面などを容易に切り替えて、さまざまなレイアウトに変更できます。収録では、状況に応じてモニターの位置やビデオカメラの移動が必要になりますが、とても楽に配線が変更できるため、柔軟な対応が可能です。

次に総テイク数です。これまで収録したゲームモーション・ダンスモーションなどの総数は約2万テイクになりました。これらの数をこなす中で、収録や編集ノウハウが貯まってきました。貯まったノウハウを活かしながら、日々スタジオスタッフ一同は収録を行っています。

次に、スタジオができてから4年目の稼働状況も紹介します。これまでの稼働状況をグラフにしました。

2018年にスタジオを開設し、2019年は前年よりも利用頻度が上がりました。これはスタジオ開設の周知と、3Dプロジェクトが活発になってきたことが要因です。2020年は、コロナ対策を行うまでの期間、スタジオを閉鎖していました。対策完了後、徐々に収録を行ったため、前年度に比べ利用頻度は若干減少しました。

コロナ対策として、マスクの着用、スタジオに入る前の検温チェック、アルコール除菌などの設備を整えました。収録関係者はそれらを使い、日々収録業務を行っています。コロナ対策を継続しながら2021年は順調に回数を伸ばしており、残り日数から見積もると、過去一番の収録回数になる見込みです。スタジオチームは一歩ずつですが、Cygamesのゲーム開発に貢献できていると思っています。

スタジオの業務とフロー

次に、スタジオの担当業務について紹介します。大きく「収録準備」「収録」「編集」の3工程があります。

収録準備では、収録日程の調整、収録用データの準備、大道具・小道具の選定・作成、絵コンテ・収録リストから動きを推測した収録方法の提案などを行います。収録は、文字どおり、モーションキャプチャーの収録です。詳細は、次に紹介する収録体制の説明で触れていきます。編集は、収録で録ったデータを編集する工程です。編集内容は主に、マーカーデータの処理、マーカーデータからキャラクターへ動きを移し替えるリターゲット処理です。

Cygamesでは、このような業務フローでスタジオを運営しています。

スタジオの収録体制

次にスタジオ収録体制についてです。収録時のメンバー構成はこのようになっています。大きく「スタジオチーム」「アクターチーム」「プロジェクトチーム」の3つに分かれます。次に紹介する「スタジオの取り組み」で関係するチームと、メンバーの詳細をピックアップして説明します。

まずは収録進行についてです。ディレクション、アクターとのやり取りを担当します。

収録監視者は、モーションキャプチャーの収録操作、収録カメラに問題が起きていないかの確認、マーカー状況の確認、収録したデータの確認などを担当します。

プレビュー操作者は、リアルタイムプレビューの操作、カメラ操作やキャラクター変更などを行います。リアルタイムプレビューとは、演技者の動きをリアルタイムで3Dモデルに反映して見せるものです。Cygamesでは基本「MotionBuilder」を使って表示し、収録データのリプレイなどで確認しながら収録を行っています。

アクターは、モーションキャプチャースーツを装着し、演技・ダンス・アクションなどで動くメンバーのことです。

ディレクションは、3DCGデザイナーやプランナーなどの職種のメンバーが演技指導者となり、アクターと相談しながら収録内容の確認・決定をしていきます。

このような収録体制で、日々モーションキャプチャー収録を行っています。以上で、モーションキャプチャースタジオの紹介を終わります。

リモコンを利用した収録

次はスタジオ独自の取り組みを紹介します。今回は、収録方法と編集方法について計3個紹介します。

まず、「収録方法」の「『リモコン』を利用する」について紹介します。Cygamesでは現在リモコンを利用した収録を行っていますが、それまではスライドのような工程で収録を行っていました。順に説明していきます。

まず、ディレクションが収録テイク名を収録進行へ伝えます。次に、収録進行から収録監視者へテイク名を伝えます。さらに収録監視者が収録名の登録を行い、収録開始した旨を収録進行へ伝えます。最後に収録進行からアクターへ演技・アクションを開始するように伝えます。このような流れで収録を進行していました。

見ておわかりのとおり、口頭伝達が多い状態です。そのため、収録進行と収録監視者の間で、テイク名を聞き間違えるなどのケアレスミスがしばしば発生しました。これらの問題を解決するために、リモコンで収録操作をまとめて行えるツールを開発して使い始めました。

このリモコンを利用することで、スライドのようにディレクション→収録進行→アクターのスッキリとした流れで収録ができるようになりました。スライドで見るとシンプルな変更に見えますが、実際の収録現場ではテイク数が非常に多いため、テイク数が多い収録ほどケアレスミスが減ったことを体感しています。

リモコンの機能は、収録テイクの選択、収録のスタート・ストップ、リプレイのスタート・ストップ、テイクのOK・NG選定などの一通りの収録操作です。

また、これに伴い、紙の収録リストをプレビューと同じ画面で確認できるようにデジタルへ変更しました。そうすることで、ディレクション・収録進行・アクターが次に録るテイク名や進捗度の共有が容易になりました。

また、今まで収録監視者は収録パソコンにかかりきりでしたが、リモコンにより確認の手間がなくなりました。収録したデータの確認に集中できるようになり、取りこぼしなどのトラブル予防に時間を使えるようになりました。

リモコンを利用した際の連携方法に関しては、以上です。

遠隔でディレクションが行える収録体制

次に「遠隔でディレクションが行える」について説明します。主に、プロジェクトチームが対象になる内容です。

整えるに至った背景には、大阪Cygamesがモーションキャプチャー収録のたびに出張していたということがあります。大阪Cygamesから「時間的な負担が大きいため、遠隔でできないか?」と相談をもらったのがきっかけとなりました。その後、調査と機材調達を行い、遠隔で対応できるように環境設備を整えました。

結果として、3台のパソコンを利用した配信構成で行うようになりました。それぞれのパソコンについて説明をします。

1台目のパソコンは、アクターの映像と音声の送受信ができるようにしました。スタジオからの音声はスタンドマイクからビデオカメラに入力して送るようにして、遠隔からの音声はスタジオ内のスピーカーから聞こえる状態にしました。

2台目のパソコンは、リアルタイムプレビュー画面の映像用にしました。演技者の動きをリアルタイムで3Dモデルに反映した映像を、1台目のアクター映像と同時に配信します。

3台目のパソコンはディレクション用です。1台目と2台目から情報を確認し、フィードバックを行えるようにしました。

構成のポイントは、こちらからの映像をすべてWebカメラ変換してWeb会議に送っている点です。こうすることで鮮明な映像をリアルタイムで見られるようになり、現場でディレクションを行う同程度のクオリティを実現しました。最近ではコロナ対策の一環として、東京でのプロジェクトの一部もこの構成で収録を行っています。

編集作業における進捗情報共有ツールの開発

続いて、編集方法の進捗情報共有ツールについて紹介します。

まず、編集について少し説明します。編集作業は大きく「マーカーポスト処理」と「キャラクターへリターゲット」の2つに分かれています。

マーカーポスト処理とは、収録したマーカーの編集です。収録時に隠れてしまって消えたマーカーの復活や、ノイズのような動きになってしまったマーカーの修正を行います。

キャラクターへのリターゲットは、編集したマーカーデータからキャラクターへアニメーションを移し替える処理のことです。Cygamesでは独自のリターゲットシステムを使っていますが、これはまたの機会に紹介できればと思います。今回紹介するのは、編集工程の進捗度やデータの状態などが一目でわかる、独自の進捗情報共有ツールです。

それがこのツールです。このツールでは、編集作業者の決定、対応優先度の決定、チェック者からのフィードバック、データへの直接アクセスなどができます。

ツール利用前は、Excelでデータを管理していました。しかし、リアルタイムの更新が必要な場では、Excelは相性が悪く、データと表の整合性の確認したり、大量のエクスプローラーウィンドウを開いたりと、余計なことに時間が取られていました。この問題を解消するために、リアルタイムで更新が可能な進捗情報共有ツールを作成しました。

リアルタイム化してよかった点はさまざまあります。例えば、自身の残りタスクが把握できること、データチェック者への個別報告が不要になったこと、データをリストからアクセスできることでファイル選びの時間が削減できたことなどが挙げられます。また、必要な編集情報はここからアクセスできるため、在宅勤務でも滞りなく作業を進められています。

スタジオ独自の取り組みについての紹介は以上です。

(次回へつづく)