_581x100.png CGsyomei_583x102.gif 訪問者 無料カウンター ページビュー 無料カウンター

2009年08月05日

SIGGRAPH2009 3日目

 シーグラフの3日目を迎えました。が、今回は夜遅くまでのイベントがある上に翌朝は朝一の8時半とかからのものが多かったりと、超過密スケジュールになってます。いろいろリアルタイムで書いていきたいところですが、シーグラフ始まっての初日のセッションのほとんどを寝て過ごしてしまった反省から体調維持重視で望んでいるので、メールの返信などもろもろ即レス即書き込みとかできてないですね。とりあえずは今日参加した内容を。

Building Digital Cities

Robots, Cyborgs, and the Final Frontier: An Inside Look at "Transformers: Revenge of the Fallen", "Terminator Salvation", and "Star Trek"

また、この他にも各企業がブースを出展するExhibisionや就職活動の場であるJob Fairもこの日から開始です。

 まず最初のBuilding Digital Citiesですが、個人的に期待していたような内容ではなかったので割愛します。デジタルで街を製作する際の具体的な方法を期待していたんですが、どっちかといえば概論というか、デジタルで街を製作するとはみたいな、そんな内容でした。

 でも次のRobots, Cyborgs, and the Final Frontier: An Inside Look at "Transformers: Revenge of the Fallen", "Terminator Salvation", and "Star Trek" は半端じゃなかったです。

 今回は写真撮影が禁止されていたのでメモをあまり取れなかったのが痛いですが、まずはターミネーター4のメイキングを。主な内容は冒頭のスカイネットの施設を襲撃するシーン、あとは割とネットでも見ることが出来るモトターミネーター周り、そしてシュワルツェネッガー扮するT800をデジタルで再現するといったところでした。

最初のメイキングでは、ジョン・コナーがヘリで脱出する際どうやって撮影したかを説明していました。その様子はこのメイキング映像の2分16秒目辺りで見ることができます。

基本的に奥のほうはブルースクリーンでデジタルで置き換えているんですが、背景はカーナー・オプティカルが製作した模型も使われているとのことです。この冒頭の脱出の長回しは、きちんと確認はできなかったんですが、どうやら最初にヘリに乗り込んで基地の爆発が起きて爆風に一瞬巻き込まれたところで別テイクに乗り換えているぽいです。ここら辺の繋ぎは全く分かりません。

 ヘリの墜落後はターミネーターに襲われるわけですが、そのターミネーターはImocapで役者の動きをキャプチャーして後でフルCGのものに置き換えていました。ここら辺でやたら言われていたのがレンダーマンのenergy conservation shaderを開発してよりリアルにレンダリングすることができたということなのですが、これはちょっとよく分からなかったのでまた後日調べてみたいです。

 モトターミネーター周りはCGTALKの記事などでみることができます。ここでは最初の実写プレートでは飛ばしすぎてしまった車を消してCGの車に置き換えています。どうみても不自然に飛んでる車をみて会場爆笑でした。

 最後にデジタルシュワルツェネッガーに関してですが、これは30代の頃のシュワルツェネッガー氏に似た体系の役者を撮影し最後に顔をCGで置き換えていました。顔は以前のシリーズでスタン・ウインストンスタジオにて取っていたマケットを元にモデリングをZbrushなどでし直して、メンタルレイでレンダリングし、途中グレネード弾が当たって炎上する際に剥がれる皮はクロスで表現しています。

 次はトランスフォーマー2のメイキングを。これもかなり面白い話が聞けました。個人的に面白かったのは、重機が何台も合体して出来たデバステイター周りの話と、空母が沈没する際の海のシミュレーション、ラストのピラミッドでの破片などの物理演算の話です。

 デバステイターが周りのものを吸い込むシーケンスでは一旦クロスで砂の大まかな動きを作成していて、そのUV情報をみてパーティクルを動かしているようです。そしてそのパーティクル情報を元に砂煙のフルイドシミュレーションをしているのですが、ここではまず低解像度のシミュレーションから初めて、後にwavlet turbulenceで詳細な結果を得ているとのことです。

 空母の沈没では海はもちろんILM独自のシミュレーターを用いています。今回はここら辺の話はあまり詳しい話は聞けませんでした。でもちょっと意外だったのが、炎はモーションコントロールカメラで撮影した実写をかなり使っているということでした。シミュレーター開発の最前線にいるILMでもこういう方法を現在も取っていることに意外性を感じました。

 ピラミッドの破壊ではグラフィックカードのGPUを用いた並行処理のりジッドシミュレーターを開発したそうです。NdiviaのQuadro5800のCUDAを使用しているとのことです。最大で3000以上の並行処理ができるとか。これで122000個の破片を計算したようです。また破片はVoronoiノイズ関数やPerlinノイズ関数を使った分割方式でプロシージャルに生成しています。Voronoiノイズを使った方法はRayFireや最近cebasが発表したvolumebreakerといったものでも使われているトレンドみたいですね。ちなみにインディージョーンズの最新作のラストのUFOが飛び立つシーンがILMでは過去最高にヘビーなシミュレーションだったらしいですが、今回はそれの8倍の規模だそうです。

 今回のトランスフォーマー2はとにかく桁違いのデータ量が必要だったそうです。以下はその裏話です。

・レンダリングやシミュレーションにアーティストの作業マシンも含めたILMの80パーセントのキャパシティを使用した。マシンのコア数は7700にも達するとか。

・デバステイターは52632個のジオメトリで総ポリゴン数は11716127ポリゴン、テクスチャのデータ量は32Gでテクスチャの枚数は6467枚。

・前作は20Tのディスク容量が必要だったが、今回は154T必要になった。

・もしトランスフォーマー2を一般的な家庭用のPC1台で作るとしたら、公開に間に合わせるためには16000年前から作業を開始しなければいけない(爆)

他にもいろいろトリビアがあるんですが、目だったところはこんな感じです。もうレベルが違いすぎて参考にならないです。これ以外にもアメリカで働いている友人から聞いた話だと、ILMは作業用マシンのメモリが最低で36(32?)Gあるらしいとか、モデルのアセットは常に最高品質のものしかないので、例えば空母と一緒に沈んでいる戦闘機などもミサイルからしてかなりのハイポリらしく画面に映らないネジもハイメッシュだとか、訳が分からない話ばっかりです。あ、他にもデバステイターのレンダリング時間が1フレ72時間とかいうのも聞いたことありますwこの人たちは何を考えているんでしょうか。

 最後にスタートレックなんですが、正直トランスフォーマーがあほすぎてあまり印象に残りませんでした。エフェクト周りではブラックホールのメイキングがあって各要素を見ることができましたが、それほど複雑な感じではなかったです。渦状に動くパーティクルにボリュームシェーダーを当てたものとか、フラクタルっぽい光のノイズとか、割と自分でも再現可能なものが多い印象でした。

 他には雪原で遭遇するクリーチャーのアートワークなど、結構絵作りに関してこういう風に苦労したなどの話が多かったように思います。

 とりあえずもっといろいろ話すべきことはあるんですが、書ききる時間が無いのと記憶が曖昧だったりデータ不足だったりするのでこの辺にします。また面白い話を見つけたらぜひピックアップしたいと思っています。
 
 
 
posted by けゑ at 18:26| Comment(6) | TrackBack(0) | SIGGRAPH2009
この記事へのコメント
ほんと、頭いいんだか悪いんだかぜんぜんわかんないっすね。とにかくすごいのだけは伝わりました
Posted by yu at 2009年08月18日 12:04
>yuさん これだけ無尽蔵にリソースを使いまくりながらも、例えば背景で木を描写するときは絶対に板ポリにテクスチャを貼ったやつしか使わなかったりするらしいです。このギャップが凄いwMAXだったら透明マップで抜いた板ポリを大量に並べるのよりもVrayプロキシーにしたハイポリオブジェクトを使った方がメリットが多いけど、レンダーマンとか絡ませた場合はどうなんでしょうね。
Posted by けゑ at 2009年08月19日 15:36
いや、VrayでScatter使ってプロキシを大量に生成しましたが、アンチエイリアス問題は大問題です。
いろいろ実験はしましたがかなり難しいです。
ILMの場合は計算コストよりもエラー対応に重点があるのではないでしょうか。
しかし板ポリと言う事でカメラワークの自由がなくなりますが、その辺をTool作成してるような気がします。感ですが。
レンダーフレームのカメラアングルから数パターンの木を事前にレンダリングして、その画像を板に貼り付けるとかをフレーム毎に実行とか・・w
そんな感じで別の意味でトリッキーな事をやっていそうと感じるのは僕だけでしょうか
Posted by ガリ at 2009年08月21日 11:44
>ガリさん どうもご無沙汰してます。確かにVrayプロキシーでオブジェクト置きまくったときのアンチ問題はきついですね。自分はファイナル品質で1時間くらいのレンダー時間なら我慢できるんですが、もし3Dでモーションブラーや反射ぼかしありまくりのマテリアルが含まれている場合はちょっと絶望的になります。

板ポリ周りの話と言えば、vueのHPにILMの上杉さんのインタビュー記事が載ってるんですが、
http://www.e-onsoftware.com/showcase/spotlights/?page=9
彼は一旦レンダリングした木を板ポリにはりつけてるみたいですね。2.5D的な方法だそうです。上杉さんは基本なんでもやってしまう方みたいですが、ILMなど海外の大手スタジオは他のスタッフによってセットアップされたシーンをレンダリングするだけのセクションがあって、アニメーターやモデラーは基本的に自分が手がけたシーンがどれだけレンダリングに時間がかかっているのか知らないことが多いんだそうです。うそーって感じですが。機会があればどのように最適化をしているのかとか、そこら辺の裏話も聞いてみたいですね。
Posted by けゑ at 2009年08月21日 21:28
面白い話をありがとうございます。
やはり効率よく木々のレンダリングは板ポリなんですかね。
それでもNormalなどと複数のライトパスをブレンディングする方法などをしっかり決めれば立体的なライティングも再現可能かもしれませんね。
面白いです。
いつも勉強になります。
Posted by ガリ at 2009年08月27日 17:37
>ガリさん ILMの場合は何を持って効率的にしてるのか分からないですねw Normal情報を使ってコンポでどうにかするといえば最近CGTALKのこのスレッドhttp://forums.cgsociety.org/showthread.php?f=59&t=799970
でアフターエフェクトのフリープラグインの話が出てましたね。こういうのを使ってうまくやれば劇的に作業効率上がりそうです。時間があればいろいろ試してみたいところですね。
Posted by けゑ at 2009年08月28日 14:21
コメントを書く
お名前:

メールアドレス:

ホームページアドレス:

コメント:

この記事へのトラックバックURL
http://blog.sakura.ne.jp/tb/31085914

この記事へのトラックバック