2013年7月16日火曜日

フォトリアリスティックなPixar短編映画「Blue Umbrella」

週末に「モンスターズ・ユニバーシティ」と「ワイルドスピード EURO MISSION」を見に行って来た。
それらのレビューは他のサイトなどに譲るとして、なかなか衝撃的だったのが、モンスターズ・ユニバーシティの前に上映された表題のPixar短編映画「Blue Umbrella」だ。

この写真はその短編映画の1カットだが、ぱっと見ただけでは実写かCGかわからない。
Youtubeでは動画の一部も公開されている。
昨今のCGのクオリティを考えれば、Pixarが実写と見紛うようなクオリティのCGアニメを作れる事そのものに驚く事はない。しかし、そういったものを作品の表現として実践投入してきたという事実は重要だ。

Pixarが最初に劇場で上映したのは「トイ・ストーリー」で1996年の作品になる。
なんと今から17年も前なのだ。しかし、今「トイ・ストーリー」を見返しても脚本は素晴らしいし、映像としても他のCG映画と違って拙いところが見え足らない。特撮やCGの映画というのは、時代を経て技術が向上していくと、昔の作品を見るのが辛くなっていくが、「トイ・ストーリー」も「バグズ・ライフ」も未だに色あせず、映画として楽しむ事が出来るのだ。

それは、Pixarが高い技術を持っていたからではない。持っている技術に会わせて作る作品を洗濯しているからだ。子供向けのおもちゃは細かいディティールを持っていないし、プラスチックなどの質感は当時の技術でも十分に表現可能だった。
「バグズ・ライフ」に関してもそうだ。本物の昆虫は拡大して見れば細かな毛や複雑な器官などを持っているものの、人間の視点から見るとつるっとしている。「バグズ・ライフ」の主人公達は人間から見た虫としてうまくデフォルメしているわけだ。

かつてはCGでの表現が難しかった水も無理なく表現出来るようになれば「ファインディング・ニモ」で豪華に使われる。「カーズ」ではデフォルメされているものの、しっかりとした質感を持った車や背景世界を描いている。「レミーのおいしいレストラン」ではパリの街が描かれ、多くの人間が登場するようになった。「WALL・E」ではリアリスティックな廃墟の地球を描いている。
これらの映画はあと10年、20年経っても(二次元平面上に投影された映像コンテンツとしては)色あせる事がないだろうと思える。

そうした流れがあったうえでの、「Blue Umbrella」だ。実写と見紛うようなものを表現する、という事には大きな意味がある。これまでのPixar作品は、デフォルメされた世界に観客が飛び込んでいく必要があった。しかし、実写と見紛うような映像は、まさしく我々が暮らしてきた現実世界そのものだ。そこにCGでしか出来ないような表現を加えていく事によって、我々はシームレスに表現の世界に入り込む事が出来る。もちろん、そういった表現が全てにはならないし、VFXを使った映画というのはもともとそうした性質を持っていた。

しかし、Pixarがフォトリアリスティックな映像表現を手に入れ、それを使ってきたという事はやはり特筆に値する。彼らは、また新しい武器を手に入れたわけなのだから。


2013年7月1日月曜日

ヒューマン・コンピューター・インタラクションから見るロボットアニメ

初めてガンダムを見たのは幼稚園の頃だった。
その頃から子供心にもあんな操縦桿とペダルだけで人型の複雑な動きをするのは無理だろうと思っていた。

だが、今考えてみるとどうだろう。
例えば現代のゲームはファミコンの時代に比べると非常に複雑に思える。
しかし、ハイエンドコンテンツのゲームでさえ、2つのスティックと正面の4つのボタン、十字キー、コントローラー上面左右にある4つのボタンで制御され、歩く、走る、飛び乗る、ジャンプする、飛び降りる、物を持つ、捨てる、投げる、武器を構える、撃つ、武器で殴る、武器を拾う、武器を交換するなどの動作を行う事が出来る。
また、正確にスティックが入っていなくても、プログラムはプレイヤーの意図をくみ取り、適切な敵を攻撃したり、スイッチを動かしたり、荷物を動かしたりするわけだ。

かつてのゲームは、1ボタン1アクションで、どんな時でもボタンを押せば同じ動きをした。しかし今は、ゲームの中のキャラクターやオブジェクトごとに出来る行動が決められており、シチュエーションによって選択されるものが決まる。それらは混乱しないよう、直感的に予想し、その通りになるよう作られている。
おそらく、モビルスーツなどのロボットにも同様の仕組みが導入されているはずだ。

例えは戦艦のモビルスーツハンガーで起動した状態ではセイフティロックがかかり、武器は使用できず、急激に手足を振るような挙動は取れないだろう。武器を持つ際には、ハンガー側のクレーンやアームとモビルスーツが通信によって同期し、武器がセットされるまで同じ姿勢を保つ。
イレギュラーな場所にある武器を拾う場合、コックピットから映像中の武器を指定する。それが自軍のもので、操縦しているモビルスーツと型番が合うようならそこに拾うというオプションが発生し、パイロットがアクションを実行するためにレバーを動かすと、自分のバランスを保ちつつモビルスーツは武器を拾いにいくわけだ。

戦闘においても同様だ。例えば敵を撃つ場合、敵に照準を正確に合わせて撃つという動作はほぼ簡略化され、ある程度近い位置に照準を持って行けば自動的に合わせてくれるだろう。
そこでトリガーを引けば、彼我の移動ベクトルを考慮して弾やビームが発射される。
当然、撃たれた方もそのまま攻撃を受けたりしない。相手の持っている武器が動き、自分を狙った時点で警告を発し、パイロットに回避を促す。ガンダムの劇中では時々、ピピピピピという音が聞こえるがまさにそれではないだろうか。自動回避という事も技術的には出来るだろうが、おそらくパイロットは自分でタイミングを取る事を選択するだろう。もちろん回避においても、周囲の障害物や敵味方などの状況を見ての補正が発生するはずだ。

特に宇宙の戦闘においては、バーニアを吹かして加速しては逆方向の加速で元の速度の動くような挙動が頻繁に発生するが、そこも細かい事を考えずに動けるよう設定されているだろうと思われる。また、同じモビルスーツ戦でも地上戦と宇宙戦ではあまりに挙動が異なる。これも、同じインターフェイスで直感的に戦闘が行えるよう、操作感覚などはある程度統一されているだろう。

特殊な状況、例えばモビルスーツで人を救出したり、工作を行ったりする場合、それ用に制御プログラムを追加するかも知れない。例えば人を認識し、人を傷つけない程度の早さで手を差し伸べ、掴むなどといった動作をするわけだ。工作などの場合は精密動作も要求される。

ガンダム劇中でも、それまでモビルスーツとは無縁だったような登場人物がパイロットになるケースが度々あるが、おそらくコンピューター制御されているモビルスーツの場合、コックピットの中でそのままチュートリアルを行えるようなプログラムも用意されているのだろうし、上記のように十分にプログラムサポートがされており、動かすだけだったらそんなに長い訓練は入らないのかも知れない。

では、モビルスーツの操縦の上手下手というのはどこで出るのだろうか?
それはおそらく、制御プログラムがどのように動いているかを理解し、うまく活用出来るかどうかというところだろう。その段階を過ぎると、その制御プログラムを自分で調整し、自分の感覚に合った物にしていくようになるはずだ。
そして、アムロやシャアのような才能を持った人間なら、大部分のサポートを切ってしまって、自分自身であらゆる操作と微調整を行うようになるのだろう。それでまともに動かす事が出来るなら射撃も回避もサポートを切り、モビルスーツの典型的な挙動から脱する事で、戦闘が有利になるはずだ。

特殊な兵装の機体や、従来とは違う形のモビルスーツの場合、他の機体で使っていた制御プログラムが流用できず、多くの事をパイロットが自分で行わなければならないため特殊な才能を持った人間が乗る事になるのだと考えるとそれも納得がいく。

こういった技術は、元々全てのデータがデジタルで作られるゲームの場合、入れるのが容易い。
なぜならそれらは最初からアフォーダンスを持ったオブジェクト、もしくはキャラクターとして人間が設定を行っているからだ。
しかし、現実世界でこういったインターフェイスを作ろうとした場合に問題となるのは、カメラ映像を解析し、それらを様々なオブジェクトに分解して認識し、それぞれに合ったアフォーダンスを割り当てなければならない。
モビルスーツの場合、行うべき行動が限られており、主用途も決まっているが、例えば人間と日常空間を共有するヒューマノイドなどを作ろうと思ったら、あらゆる物体を自動認識できなければならないし、学習し、他のマシンと共有する機能なども必要となっていくだろう。

モビルスーツを動かす事は、HCI的には可能なのではないかと思える。
しかし、実現するには他の面でも高度な情報処理や人工知能が必要になっていくだろう。