お気に入りタイトル/ワード

タイトル/ワード名(記事数)

最近記事を読んだタイトル/ワード

タイトル/ワード名(記事数)

LINEで4Gamerアカウントを登録
[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
特集記事一覧
注目のレビュー
注目のムービー

メディアパートナー

印刷2011/08/31 00:00

ニュース

[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場

E-TECH展示セクション会場の様子
画像集#002のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
 2011年8月13日8月19日8月26日と3回に分けてお届けしてきた「Emerging Technologies」(エマージングテクノロジーズ,通称 E-TECH)展示セクションレポートもこれで最終回。4回目となる今回は,次世代エンターテイメントに関する多数の発表や展示を一挙に紹介しよう。

E-TECH展示セクションレポート(1)

E-TECH展示セクションレポート(2)

E-TECH展示セクションレポート(3)



iScan3D and iFace3D: 3D Scanners on iPhone

by Digiteyezer


〜iPhoneやiPadで人の顔を手軽に立体スキャン〜

 フランスのDigiteyezerがE-TECHに出展した「iScan3D」「iFace3D」は,ごく普通のiPadやiPhoneを使って,現実世界の立体物を3Dグラフィックスとして取り込めるアプリだ。
 いずれのアプリも使い方は簡単で,表示されるテンプレートに従って対象物の動画を撮影するだけだ。汎用立体物の取り込みに対応したのがiScan3Dで,人間の顔面を取り込むのに特化して作られているのがiFace3Dとなる。

iFace3Dを使って顔面をスキャンしている様子。画面に表示されるテンプレート画像と一致するように,スキャンする対象を角度を変えながら動画で撮影していく
画像集#003のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場 画像集#004のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場

 iPhoneやiPadの演算能力だと,撮影した動画を3Dモデルへ変換処理するのはさすがに難しいため,iScan3DとiFace3Dでは,撮影した動画をひとまず中間データに変換し,Digiteyezerが用意しているサーバーへ送るようになっているのだという。中間データから3Dモデルへの変換は,このサーバー上で行われることになる。
 サーバーでのデータ処理は数分程度で完了し,スキャンした対象物を3Dモデル化したデータがiPhoneやiPadに返送されてくる仕組みだ。

 ちなみにiFace3Dは,クラウド使用料込みで85円(※2011年8月31日現在)と低価格。iTunes Storeで販売されているので,興味がある人は試してみるといいかもしれない。


 iScan3DとiFace3Dは,今のところ,3Dモデル化したデータを動かしたり,あるいは取り込んだ顔に落書きをしたり,アクセサリを付加したりといった,個人ユーザー向けアプリになっている。しかしDigiteyezerは,iScan3DとiFace3Dのソフトウェア技術をBtoBビジネス向け商材として展開したいと考えているそうだ。

 対象を簡単に3Dモデル化できるという手軽さは,アミューズメントパークのアトラクションやゲーム機などにおいて,来場者やプレイヤー自身のアバター作成機能を実現するうえでは,かなり有効な手段になるといえる。
 スマートフォンやタブレットの内蔵カメラと,クラウド技術とを用いて,難しいと思われがちな3Dオブジェクトスキャンを手軽に実現したiScan3DとiFace3Dは,技術的に相当高く評価されたようで,SIGGRAPH 2011の「Best Emerging Technology」に選ばれている。

 展示ブースでiFace3Dを使って筆者の顔を取り込んでもらい,その3Dモデルを操作している様子を掲載しておこう。


3Dモデル化した筆者の顔にアクセサリーを付け替えているところ
画像集#005のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場 画像集#006のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場 画像集#007のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場


Surround Haptics: Sending Shivers Down Your Spine

by Disney Research, Pittsburgh


〜次世代ゲーム用チェア!? 背中を駆け巡るボディソニックシステムが登場〜

 前回のレポートでWalt Disney Research(以下,WDR)の展示の模様をお届けしているが,そのWDRのピッツバーグ研究所(以下,WDR Pittsburgh)が発表していたのは,コストパフォーマンスが高く,きめ細かな振動表現ができるというボディソニックシステム(≒フォースフィードバックシステム)「Surround Haptics」(サラウンドハプティクス)だ。

背中から太腿にかけて振動を与えるタイプのデモ
画像集#010のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
 E-TECHで展開されていた体験コーナーでは,背中のみに振動を与えるタイプで,Surround Hapticsの基礎技術を体験できると謳われるもの,そして,背中から太ももにかけて振動を与えるタイプで,実際にゲームと連動したSurround Hapticsが楽しめると謳われるものの2種類が用意されていた。

 どちらもシート状で,椅子に取り付けられているのだが,背中のみに振動を与えるタイプのデモでは,被験者にはiPadが手渡される。iPad上では,手書き入力に対応したドローソフトのようなアプリが実行されていて,そこに指で自由に曲線を描くと,リアルタイムでその軌跡に沿った振動が背中に伝わるというものになっていた。

 一方,椅子に取り付けると「L」字型に背中から太ももまでを覆うタイプのほうは,Disney Interactive Studiosのレースゲーム「Split/Second」をプレイすると,ゲーム進行と連動したSurround Hapticsを楽しめるというデモだった。

 Split/Secondは,「破壊」がテーマになっている珍しいレースゲームで,崩壊していくコースを車で走り抜けていくという内容になっている。Surround Hapticsを体験するサンプルとして,おあつらえ向きのタイトルといえよう。

画像集#008のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
背中のみに振動を与えるタイプのデモ。iPadの画面に描いた軌跡が触感としてそのまま背中に再現される仕組みだ
画像集#009のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
背中から太腿にかけて振動を与えるタイプのデモでは,Split/SecondをプレイしながらSurround Hapticsが体験できるようになっていた

 筆者が実際にSplit/SecondをプレイしてSurround Hapticsを体験してみたところ,アクセルを踏み込んでいるときや敵車に衝突されたとき,瓦礫だらけの道を走破しているときなどがとくに振動を体感できた。しかもこれらの振動は,オン/オフするだけではなく,背中の左右を駆け抜けたり,ふくらはぎの前から後ろに移動したりするのだ。この体感は感動的ですらあった。
 表現として適切かどうかはわからないが,振動がドット単位で移動しているような感じで,車両とプレイヤーの身体がシンクロしたような一体感が味わえるのだ。

振動の仕組みを解説したイラスト。少ない振動ユニットで振動移動を表現しているのかが分かる
画像集#011のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
 展示ブースでは,WDR Pittsburghのスタッフが「Surround HapticsはフォースフィードバックでなくHaptics(触覚)だ」と強調していたのだが,実際に体験してみれば納得がいく。
 これだけ複雑な振動をさせているのだから,さぞ大量の振動ユニットが搭載されているのかと思いきや,背中のみに振動を与えるタイプで8個,背中から太腿にかけて振動を与えるタイプでも14個の振動ユニットしか実装していないのだという。
 少ない振動ユニットで縦横無尽に駆け巡る振動をどのように作り出しているのかというと,それぞれの振動ユニットにおける振動の強弱を高い精度で制御し,仮想的な振動点を作り出すことで実現されているのだ。
 「5.1chスピーカーセットで作り出されるサラウンドサウンドの振動版」と言うとイメージしやすいかもしれない。

背中から太ももにかけて振動を与えるタイプのSurround Hapticsを椅子に取り付けるイメージ
画像集#012のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
 この振動を作り出すのに用いられているユニットは,Engineering Acoustics製の「C2 Tactor」だそうで,1個あたりの単価がおよそ2ドル程度とのこと。
 C2 Tactorは,いわゆるボイスコイルモーター(VCM)で,スピーカユニットのボイスコイルに重りを付けたような構造になっている。WDR Pittsburghのスタッフは,「リニアで正確な振動を作り出すのにC2 Tactorが最適だった」と語っていた。

 なお,Surround Hapticsは,パークの新アトラクションなどへの応用が考えられているそうだ。そのほか,今回の展示で好評を得ていたこともあり,民生向けのゲームデバイスとしての展開も検討中とのことで,今後に期待したい。


FuwaFuwa: Detecting Shape Deformation of Soft Objects Using Directional Photoreflectivity Measurement

by JST ERATO 五十嵐デザインインタフェースプロジェクト


〜「揉んだり,なでたり」が可能なゲームコントローラを実現できる!?〜

 指で押し込むスイッチや,指で画面をなでるタッチ&スライドなどのマンマシンインタフェースは,堅い物に対するセンシングを基本としている場合が多い。スイッチ表面をゴムのようなものにして触感自体を柔らかくしているものもあるが,入力自体は「オンかオフか」の二値情報しか取れないケースがほとんどだ。

 それに対し,JST ERATO 五十嵐デザインインタフェースプロジェクトが開発した「FuwaFuwa」は,「柔らかいものに対する無段階なアナログ入力」を情報として取れるインタフェースになっている。
 展示ブースでは,センサーの仕込まれたクッションやぬいぐるみが用意され,クッションの任意の場所を押すと圧力の強弱分布がリアルタイムで取得される様子や,ぬいぐるみに手で触れると,ぬいぐるみの視線が触れた方向を向くというデモが披露されていた。
 下に掲載したのは,今回のデモの内容も含めてFuwaFuwaの可能性を説明している公式解説ムービーだ。


ぬいぐるみに触れると,触れた方向を感知してぬいぐるみが視線を向けるというデモ
画像集#013のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場 画像集#014のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場 画像集#015のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場

FuwaFuwaの動作原理を図解したもの
画像集#016のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
 このFuwaFuwa,どんな圧力センサーが搭載されているのかと思いきや,内蔵されているのはシンプルな光学センサー。ただし,独自の工夫が施されている。
 圧力を感知するセンサーは球形をしており,直交する6方向(前・後・左・右・上・下)の穴に光学センサーが仕込まれている。この光学センサーは,赤外線LEDとフォトトランジスタで構成されており,いわゆる測距センサー(フォトリフレクター)に相当するものだ。

 クッションは何もしない状態だと膨らんでいるので,中に詰め込まれている綿などの密度が低くなっている。この状態では,測距センサーが発した赤外光が散乱してしまい,帰還してくる光量が少なくなる。逆に強く押さえたりすると,内容物の密度が高くなるため,測距センサーが発した光がより多く返ってくるわけだ。要するに,測距センサーを密度測定に転用したということになる。

圧力の測定を密度の測定に置き換えるという発想の転換から産まれた,独自センサーモジュール単体の内部構造
画像集#017のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
 センサー自体は硬いため,ふわふわした物体に仕込むと触感を損ないかねない。そこで,試作されたクッションでは,センサーをクッション内部の四隅に追いやり,中央部分の領域を柔らかい内容物だけにしている。クッションのどこがどのくらい押されたかというセンシングは,4センサーの状態値から補間・推測して求めているそうだ。
 取得したデータをワイヤレスでホストPCへ飛ばすためバッテリーも内蔵しなければならず,また,試作型ということでその制御基板の物理的な大きさもそれなりにあるため,センサーモジュールは結構な大きさになってしまっているが,それらは今後改善される見込みとのことだった。

クッション型アナログ入力ゲームコントローラの試作機。押し込んだ方向にシーソーが傾くという,操作系のデモになっていた
画像集#018のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場 画像集#019のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場

 このFuwaFuwaの応用先としては,ぬいぐるみをはじめとしたアミューズメント系を連想する人が多いと思われるが,枕やそのほかの寝具に仕込めば介護や育児などの生活支援分野にも役立てられると,研究グループは考えているようだ。


PocoPoco: A Tangible Device That Allows Users To Play Dynamic Tactile Interaction

by 首都大学東京


〜新感覚ミュージックコントローラが登場〜

 「音楽を視覚的に楽しむ,もしくは演奏する」というテーマは,楽器メーカーを含む世界中の研究機関が今もなお力を入れて研究している分野だ。首都大学東京が発表した「PocoPoco」もこの分野にまつわる研究成果で,新感覚ミュージックコントローラといえるものである。

 PocoPocoは,ポコっと立ち上がる筒が4×4のマトリクス配置されたデザインになっており,サウンドを入力していくシーケンサーモードと,入力した楽曲を再生しながら演奏に表情を付けていくパフォーマンスモードとが用意されている。

 PocoPocoの象徴的なモードともいえるシーケンサーモードでは,合計16本用意される筒のそれぞれが,サウンドを入力するための鍵盤的な役割を果たす。適当に筒を選んで押し込めば,押し込んだタイミングに合わせて音が鳴る仕組みだ。なお,音高の指定は特別なコマンドを打ち込む必要があるという。

 パフォーマンスモードでは,発音するタイミングで各筒がポコっと立ち上がるので,筒をねじったり,上げ下げしたりすることでビブラート(モジュレーション)効果を掛けたり,ギュイーンというピッチベンド(ポルタメント)効果を掛けたりできる。

 このあたりは,下に掲載した公式紹介ムービーを見てもらうと分かりやすいだろう。


 この筒がポコっと立ち上がる仕組みは,電磁気を応用したソレノイドアクチュエータによるもの。筒の回転をロータリーエンコーダで取得し,その高低をフォトリフレクターで取得している。メカニズム自体は,ごく一般的な部材で実現されているため,コストがそれほどかからない点もPocoPocoの利点だといえる。

PocoPocoの内部構造
画像集#021のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場

ライブパフォーマンスの様子
画像集#022のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
 なお,展示ブースでは,メガネを掛けて白いワイシャツに身を包んだ3人の研究生メンバーがPocoPocoを用いた実演奏のライブパフォーマンスを披露して注目を集めていた。パフォーマンスの模様を撮影したムービーを下に掲載したのでぜひ見てほしい。
 この種のデバイスでは,実用性よりも見た目重視なものが多いといえるが,意外や意外,PocoPocoは見た目だけでなく,実用的な機能設計になっているのが印象的だった。



The Virtual Crepe Factory: 6DoF Haptic Interaction with Fluids

by フランス国立情報学自動制御研究所(INRIA Rennes)


〜GPUベースの流体シミュレーションを用いた,とってもマジメな「クレープ調理シミュレータ」〜

 日本でも誰もが知っている菓子であるクレープ。もともとはフランスのブルターニュ地方で産まれたパンケーキの1種で,ブルターニュ地方にはクレープ調理師の養成学校もあるのだとか。

 フランスを代表するこの食文化を守るべく(?),フランス国立情報学自動制御研究所により開発されたのが,クレープ調理シミュレータ「The Virtual Crepe Factory」である。まずはその紹介ムービーを見てほしい。


フライパンにクレープ生地を注ぐとその重みもしっかりと伝わる。ちなみにフライパンの返しは成功する人が少数で,大抵バーチャルキッチンをグチャグチャに汚すだけの結果に終わっていた。その無残な光景が周囲の笑いを誘い,ブースはいつも和やかなムードだった
画像集#023のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
画像集#024のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
画像集#025のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
 The Virtual Crepe Factoryは,一般的なPC上で動作するシミュレータで,ビデオからも分かるように,ゲームライクな3Dグラフィックスで再現されている。被験者は,クレープ生地をすくうための杓子にあたる力覚デバイスと,フライパンの操作にあたる力覚デバイスの2本を持ってクレープ作りに挑戦することとなる。
 このインタフェース部分には,同じくフランスのシミュレータ用触覚再現型インタフェースデバイス(力覚デバイス)メーカーであるHaptionによって製造された自由度6(DOF:Degree-Of-Freedom)の「VIRTUOSE 6D35-45」が採用されている。これにより,フライパンの重量感や,クレープ生地がフライパンの上を動き回るときの荷重変化を正確にユーザーへとフィードバックできるようになっているのだそうだ。

 被験者は,ボウルに入っているクレープ生地を杓子でフライパンに敷き,レンジ(ホットプレート)部分にあてがって焼いていく。妙にリアルなクレープ生地の動きは,GPUベースで実装した流体物理シミュレーションで制御されているそうだ。担当者によれば,クレープ生地やシロップなどの流体は,シーンあたり総計2万5000のパーティクルによって再現され,粒子法の1つであるSmoothed Particle Hydrodynamics(SPH)によってシミュレーションされているという。

 クレープ職人の見せ場といえば,片面が焼き上がったクレープをヘラを使わずに腕のスナップ動作だけで裏返す「フライパン返し」だろう。担当者によれば,The Virtual Crepe Factoryで訓練すれば「フライパン返し」もできるようになるそうだ。
 というわけで筆者も挑戦してみたのだが,焼き上がったクレープをクレープ生地入りのボウルに投げ込むという失態をやらかしてしまったのだった。


Recompose - Direct and Gestural Interaction with an Actuated Surface

by MIT Media Lab


〜Kinectのセンサーを用いたデジタル彫刻システム〜

 MIT Media Labが開発した「Recompose」は,Xbox 360用のモーション入力システムである「Kinect」を応用し,自由度の高いジェスチャー入力でデジタルな彫刻制作やCADモデリングを行えるようにしたシステムである。下に掲載したのは,その公式紹介ムービーだ。

Recomposeの公式紹介ムービー

Recompose from Matthew Blackshaw on Vimeo.


Recomposeを操作している様子
画像集#026のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
 ムービーを見てもらうとよく分かるが,Recomposeの正体は,上下に動く可動ピンが創作対象領域に敷き詰められたテーブルである。
 この上に両手をかざし,左右の手の親指と人差し指をくっつけて「つまむ」ジェスチャーをすると,つまんだ下にあるピン群が選択範囲になり,その後両手を上下させれば,選択範囲のピンが手の動きにシンクロして上下する仕組みだ。
 つまむ動作をやめればアクション完了となり,その位置でピンが固定化される。

 これらの動作を繰り返すことで,テーブル上に任意の高低分布を作り出していくことができ,がんばれば素晴らしいレリーフ像などを作れるかもしれないというのが,制作者であるMIT Media Labの主張である。

ユーザーの直上にはKinectセンサーとプロジェクタが設置されている。KinectやPlayStation Moveといった入力インタフェースは,バーチャルリアリティや各種インタラクティブ技術の関連研究に広く応用されており,今後もこうした研究報告が出てくることだろう
画像集#027のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
 ユーザーの直上にはKinectから取り出したセンサーユニット(以下,Kinectセンサー)が設置されており,このセンサーによってテーブル全体の空間を監視し,ジェスチャー入力をリアルタイムに検出している。選択した領域をどの高さで固定化するかという高さの指定も,Kinectセンサーが持つ深度取得能力が利用されているとのこと。
 さらに,Kinectセンサーの隣にはプロジェクタも置かれており,「いまどの範囲を選択しているか」が分かりやすいよう,選択領域にマーキング映像を表示できるようになっている。

上下するピンはリニアモーターによって制御されている
画像集#028のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
 Recomposeにおける唯一のメカ部分は,上下に可動するピン群だ。そのピン群は,根本に仕込まれたリニアモーターによって,その上下駆動が制御されている。
 現在は試作段階のため,ピン自体も大きめなものが採用されているが,実用化する段階では,ピン数をもっと多くしなければならないだろうし,高低のダイナミックレンジももう少し大きくする必要があるだろう。
 まだ改良の余地があるとはいえ,非接触で自在な造形を作り出せるという着想は面白い。

画像集#029のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
ピンの上にはキートップのような箱がくくりつけられている。これがピクセルの役割を果たす
画像集#030のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
奥に見えるのが,実際にジェスチャー入力を認識したうえでピンを制御しているホストPCだ


MoleBot: Mole in a Table

by Design Media Lab KAIST


〜モグラを叩かないで操るゲーム〜

 韓国のDesign Media Lab KAISTは,物理的に存在するテーブルの上で「もぐら」のバーチャルペットが飼えるユニークなペットゲーム「MoleBot」を発表していた。
 下に掲載したのは,その公式紹介ムービーだ。

MoleBotを紹介する公式ムービー

MoleBot: Mole in a Table from Woohun Lee on Vimeo.


 MoleBotが動き回るテーブルは70×70cm角の大きさで,そこに直径6mmある六角形状のピンが1万5000個も敷き詰められている。
 蜂の巣状にピンが敷き詰められたテーブルを地面に見立て,この下でもぐら型の本体が動き回るという仕組みだ。

 もぐらが存在している部分は,もぐらの形状に合わせてピンが盛り上がることなる。盛り上がったピンは,その場所からもぐらが移動することで自重により元の位置に下がり,平坦に戻る。もぐらが動くと,ピンの盛り上がりが軌跡を描くことになるわけである。

MoleBotを横から見たときの構造
画像集#031のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
 もぐらの移動には,2つのステッピングモーターを利用したXYステージが利用されている。XYステージとは,産業用ロボットの移動に利用される装置で,XYテーブルともいわれる。指定したX,Y座標に最短経路で正確に移動させられるのが特徴だ。
 MoleBotでは,XYステージを用いて直接もぐらを動かすのではなく,テーブルの下面に設置された台座ユニットを動かすようになっている。この台座ユニットともぐらには,強力なネオジム磁石が組み込まれていて,台座ユニットを動かすと,もぐらも一緒に移動することになるのだ。

 もぐらが動いたときにピンが引っかからないよう,ピンともぐらの間には合成弾性繊維のスパンデックスが敷かれており,さらにもぐらとテーブルの間にもベークライトのシートが敷かれているため,スムーズに動かせるという。

 なお,MoleBotには3種類のゲームが用意されている。
 1つめのゲームは,MoleBotの盛り上がりを操作して,ボールをゴールまで運ぶというものだ。テーブル上にはピンで作られた迷路もあるため,MoleBot本体をうまく動かしてボールを転がしていかなければならない。

 2つめは,テーブル上に設置されたオモチャの木に実っている果物オブジェクトを回収してゴールまで運ぶゲーム。果物オブジェクトは,磁性体金属でできているため,もぐらが近くに移動すると引き寄せられることになる。もぐらに近づいた果物オブジェクトは磁力を帯び,別の果物オブジェクトを引きつけるようになるため,果物オブジェクトのあるところを次々と巡回して数珠つなぎに集めていくのだ。

 3つめは,1つめに挙げた迷路ゲームの亜流バージョン。テーブル上のボールをゴールまで運ぶのは同じだが,もぐらを操るプレイヤーと車輪で動くラジコンロボットを操るプレイヤーとで競い合うゲームだ。現状,1体までしかもぐらを操作できないため制限から,こういった仕様にしているとのこと。

 食卓のテーブルがMoleBotだったら毎食毎食がとても楽しくなりそうだが,実際にテーブル上の食器を倒さないように操作するのは相当スリリングかもしれない。

MoleBotでゲームをプレイしている様子。MoleBotの操作は,モーション入力にも対応しているそうだが,今回の展示ではゲームパッドの方向キー入力による操作が利用されていた
画像集#032のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場 画像集#033のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場


InteractiveTop: An Entertainment System that Enhances the Experience of Playing with Tops

by 電気通信大学小池研究室


〜これが次世代型ベイブレード!? 複合現実型コマバトルがやってきた〜

 電気通信大学小池研究室が発表した「InteractiveTop」は,コマ遊びにハイテクを持ち込み,21世紀型に進化させたバージョンだという。
 まずはその“ハイテクコマ”を公式紹介ムービーで確認してみてほしい。


 InteractiveTopでは,ゲームフィールドとなる舞台にCGが映し出されており,なんともサイバーな雰囲気である。さらにゲームフィールドでコマを回し始めると,その瞬間からコマの回転数などがコマの直下に表示される仕組みになっている。

 通常のコマ遊びだとプレイヤーは回っているコマを眺めるだけで,とくに何ができるわけでもないが,InteractiveTopでは,回転しているコマに対して,積極的にインタラクションが行える。コマ回し機を近づけるとコマの回転を強められるし,近づけ方次第でコマの軌道を変えることもできるのだ。
 InteractiveTopは自分のコマを操作できるだけではない。自分のコマが敵プレイヤーのコマに衝突すると,その衝撃がコマ回し機から手へフィードバックされ,パチンと手の平が叩かれるのだ。「コマの痛みをプレイヤーも感じ取れ!」というわけである。
 さらに,コマ同士が衝突すると,ゲームフィールドにも衝撃を表したエフェクトCGがオーバーレイ描画され,ド派手な効果音も鳴り響くといったシステムになっている。

InteractiveTopプレイ中の様子
画像集#034のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場 画像集#035のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場

InteractiveTopのシステム概念図
画像集#036のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
 さて,このInteractiveTopは,どのような技術で実現されているのだろうか。
 コマを回す仕組みから見ていこう。InteractiveTopは,コマ側にネオジム磁石,コマ回し機側に電磁石がそれぞれ仕込まれており,磁力を用いてコマを回転させている,電磁石のS極とN極を高速に入れ替えることで回転動力をコマに対して発生させるわけだ。
 コマが回っている最中に非接触でコマの回転が上げられるのは磁力を用いているためで,コマとコマ回し機の距離を30mm程度まで近づければコマに影響を与えることができる。なので,やや離れた距離から自分のコマを敵コマへ積極的に近づけて攻撃することもできる。

左の写真がInteractipTopに用いられるコマの上部だ。コマの下部(写真右)には,4つの赤外線LEDが確認できる。写真では分かりにくいかもしれないが,中央の軸に偏光フィルタが貼り付けられていた
画像集#037のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場 画像集#038のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場

撮影レンズに偏光板を取り付けた高速度赤外線カメラ。750Hz撮影が可能だ
画像集#039のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
 前述したように,ゲームフィールドにはコマの回転数が表示されるのだが,今のところゲーム性を持っているというわけでもない。とはいえ,この回転数の表示と取得にもなかなかのハイテク技術が使われている。
 コマの底面に赤外線LEDと偏光板が取り付けられているのだが,実はゲームフィールドが半透過型のスクリーンになっているため,コマの偏光板を通った赤外線はゲームフィールドを透過するわけだ。そして透過した赤外線は,ゲームフィールド内部に設置されている高速度赤外線カメラが捉える仕組みになっている。

偏光板は旭化成の「ワイヤーグリッド偏光フィルム」(WGF)が利用されているとのこと
画像集#040のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場 画像集#041のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場

試作実機のテーブル下部。左下にあるのがホストPCで,右側に斜めで設置された板は,映像をテーブル背面側に反射させる役割を果たす鏡になっている。左上に設置されている白い箱がCG表示用のプロジェクタだ
画像集#042のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場
 一定方向の光しか通さない特性を持っているのが偏光板だが,この偏光板はコマだけでなく,赤外線カメラ側にも取り付けられている。
 これにより,回転しているコマ側の偏光板を通った光は,「赤外線カメラ側に貼られた偏光板の偏光条件と一致した瞬間の赤外線」しか捉えられなくなる。つまり,高速回転しているコマから発せられた赤外線ほど,赤外線カメラから見ると高速点滅する光として捉えられることになる。
 赤外線を利用したこの仕組みによって,コマの回転速度に加えて,位置も把握しているのだそうだ。

 ホストPCでは,これらの情報を基に物理シミュレーションを走らせており,コマ同士の衝突判定を行って,衝突のエフェクトCGをどの程度の大きさにするか決定したり,コマ回し機経由でプレイヤーに返す衝撃の大きさなどを決定していたりする。
 さらに,エフェクトCGやコマの回転数など,描画系もホストPC側で制御しているとのこと。ゲームフィールドの下に設置されたプロジェクタからゲームフィールド裏面の半透明スクリーンへ,映像が投射される仕掛けになっているのだ。

実体として回転するコマとその下に表示されるCG。その両方がゲームの行方に関わってくるInteractiveTopは,複合現実型のコマ遊びといえるのかもしれない
画像集#043のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場 画像集#044のサムネイル/[SIGGRAPH]「Emerging Technologies」展示セクションレポート(4) iOS対応の3Dスキャナや“未来のベイブレード!?”などが登場

 現在は試作機ということもあってか,テクノロジーデモが主体で,ゲーム的な要素はそれほど深く盛り込まれていない感じだったが,未来らしさが多大に感じられる展示内容だった。
 今の状態からもう1段階,何らかのチャレンジングなスコアリングシステムを搭載してゲーム性を高めれば,子供たちに人気の高い「ベイブレード」をしのぐ,新しいコマ遊びの面白さを表現できそうな予感がする。
  • この記事のURL:
4Gamer.net最新情報
プラットフォーム別新着記事
総合新着記事
企画記事
スペシャルコンテンツ
注目記事ランキング
集計:11月28日〜11月29日