アップルが発売した複合現実(MR)デバイス「Apple Vision Pro」について、3,500ドル(約52万円)という価格やサイズの大きさ、装着した際の重さ、アプリケーションの少なさなどを批判するコメントを見聞きする機会が少なくない。そんなものを誰が使うのか、これではヒットするはずがない、というわけだ。
そうした評価は正しいようでいて、実は正しくないのではないか──。それが実際にVision Proを使ってみて感じたことだった。なぜなら、そのサイズ感や重さ、アプリの少なさについてネガティブな反応があって当然だと感じられた反面、ことさらネガティブな部分を批評することに現時点ではほとんど意味を感じなかったからである。
Vision Proを初めて試したとき、直感的に「コンピューティングの未来はこうなる」という確信をもった。コンピューターは「まとう」ものになり、ディスプレイが不要な世界がやってくる。そしてリアルな世界にバーチャルな存在が溶け込み、それらと違和感なくインタラクションできる──。それこそがアップルが目指している空間コンピューティングの一端であり、Vision Proが提示している未来だ。
そんなコンピューティングの未来のあるべき姿をアップルはいち早く理解し、構造化し、この2024年の時点での最新技術をもって“プロトタイプ”をつくり出した。まだハードウェアが完成形ではなく、ベータ版にすら満たないという前提なら、現時点では大きくて重くて当然だろう。それがVision Proである。
つまり、Vision Proは製品であって、製品ではないともいえる。あくまで、アップルが考えるコンピューティングの未来というビジョンに共感し、並走しながら、まだ存在しないニーズに応えるアプリケーションやサービスを共創していく開発者のための“開発キット”のようなデバイスなのだ。こうした点を理解しておかないと、本質を見誤ることになる。
バーチャルな物体が「ただ、そこにある」ことの意味
Vision Proを装着して視線のキャリブレーションなどのセッティングを終えると、そこにはごく当たり前のように目の前の部屋の景色が広がっていた。空中にはウィンドウやアイコン、ドックなどが違和感なく“浮いて”いる。
この「当たり前のように」という感覚が実は画期的だ。頭部はVision Proで覆われており、目の前にはディスプレイがあるので“透けている”わけではない。それなのに、まるで肉眼で世界を眺めているかのように、目の前の景色が鮮やかに広がっている。実は複数のカメラ越しの映像が合成されたものを目の前のディスプレイを介して観ている、という事実を忘れさせるほど高精細なのだ。
しかも、周囲にある物体との距離感のズレを気にすることもなく歩き回れる。頭にVision Proの重さを感じることを除けば、装着していない状態と大差ない。
さらには、本来ならリアルな世界には存在しないウィンドウや文字、グラフィックなどのバーチャルなオブジェクトが、ごく自然に目の前に存在している。ただ、そこにある。既存のVR/ARという枠組みを超越し、リアルとバーチャルの境界線がなくなり、何の違和感もなく溶け合っている──。そう言っても過言ではないだろう。
目の前にチョウが舞うシーンをイメージしてほしい。視界にどこからともなくチョウが現れ、目の前をひらひらと横切っていく。自分がいる部屋の中に本物のチョウが飛んでいるように感じて、思わず手を伸ばしそうになった。
続いて窓枠のようなものが現れ、その向こう側には恐竜がいる世界が広がっている。その恐竜が窓枠からこちら側に首を出してくると、反射的にのけぞってしまった。いずれもバーチャルなオブジェクトであることを忘れてしまいそうなほど、ごく自然に目の前に存在している。
iPhone 15 Proで撮影した空間ビデオを再生したときには、まるで映像の世界に入り込んだような錯覚を覚えた。例えば、知人が海外旅行のときに撮影した空間ビデオをVision Proで観ると、まるで他人の記憶を脳に注入されたかのように追体験できる感覚である。これは空間オーディオによって周囲の環境音も記録できているからで、不思議なことに記録されていないはずの匂いまで補完されたように感じられた。AirPodsを装着すれば、なおのこと没入感が高まる。
その場にいない人とFaceTimeでコミュニケーションするときは、互いにVision Proを装着していれば、目の前に現れるアバターと会話できる。このアバターは装着者の顔をVision Proでキャプチャーしてリアルタイムに生成されるもので、相手の視界には自分の表情や顔の動きもリアルに表示される。まだアバターのつくりは粗削りだが、Vision Proのバージョンが上がっていけば、まるで本当に対面でコミュニケーションしているような感覚になっていくはずだ。
直感的なユーザーインターフェイスを備えている点も特筆すべきだろう。これまでの仮想現実(VR)デバイスは、両手にコントローラーを持って操作することが一般的だった。これに対してVision Proにはコントローラーがなく、操作にはジェスチャーと視線を用いる。
例えば、画面に表示された「OK」のボタンを選んで押したいとしよう。ボタンを“見る”だけで選択されるので、あとは指先をタップ(親指と人差し指をくっつけて離す動作)するだけでいい。このときは腕を持ち上げたりする必要もない。ウィンドウを動かしたりサイズを変えたりする際には、視線を動かして枠の部分を選び、指先で掴んで動かす。画面のスクロールも同様だ。
このように、操作は視線と指先のタップが中心なので、腕を大きく動かしたり持ち上げたりするジェスチャーが圧倒的に少なくて済む。つまり、腕が疲れづらい。また、iPhoneなどのアップル製品のユーザーインターフェイスに慣れていれば、操作は直感的に理解できる。
これらの技術が組み合わさったことで、目の前のリアルとバーチャルが溶け合い、違和感なくインタラクションできるわけだ。そうした体験を可能にするというビジョンを現実的なレベルで提示するために、アップルは2024年の時点で“最高”の技術を惜しみなく投入している。だから、高価で、大きく、重いと感じたところで、そういうものだと受け入れるしかないのだ。
生成AIと空間コンピューティングが一体化する時代
一連の体験を進化させていくうえで、今後は間違いなく人工知能(AI)が重要な役割を果たしていく。例えば、バーチャルなオブジェクトが生成AIによってつくられ、ごく自然に目の前のリアルな景色に溶け込んでくるような世界がやってくる。
イヤフォンやヘッドフォンのノイズキャンセリング機能のように、視界に入る派手な広告や看板、ライティングなどの視覚的な刺激を低減する“ビジュアル・ノイズキャンセリング”のような機能も実用化されるかもしれない。極端なことを言えば、目の前の世界をすべてアニメーション風に置き換えるようなことも可能だろう(実用的かどうかは別として)。
デジタルツインにおけるシミュレーションの結果やリアルタイムのデータをVision Proが取り込んだりしていけば、AIエージェントがリアルタイムに起きている出来事に基づいてユーザーをナビゲートしてくれるようになる。少し先の“未来”をシミュレートして視覚化することも可能だろう。
また、現実世界のあらゆる物体に情報を付与できるようになっていれば、物理空間の検索も可能になる。目の前に気になったものがあれば、そこに視線を移すだけで瞬時に情報を得られるようにもなるはずだ。
アプリケーションも現実世界と一体になる。例えば、アプリのカレンダーや時計を机の隅に“置いて”おいたり、世界中の大自然の風景を映し出せるバーチャルな窓を壁に配置したりするような、部屋のカスタマイズも可能になる。
アップルが見せたいのは、こうした体験をそのままに、大きなゴーグルが「なくなる」世界だ。Vision Proは、おそらく次世代ではバッテリーを内蔵した小型軽量のデバイスになり、その次にはメガネのようになるかもしれない。将来的にはコンタクトレンズのように小型化されたり、網膜に投影したりできるデバイスになるかもしれない。そのとき、コンピューティングにおいてディスプレイは不要になる。
そんな空間コンピューティングが生活に浸透した未来の一端と、その未来に対するアップルのビジョンをVision Proは見せてくれた。「十分に発達した科学技術は、魔法と見分けがつかない」という、SF作家のアーサー・C・クラークが残した有名な言葉があるが、いまはまだ“魔法”のように見えるテクノロジーを2024年という“過去”へとアップルは持ち込んだ。そんなデバイスが、Vision Proだと言っていいだろう。
(Special thanks to Shogo Numakura)
※『WIRED』による「Apple Vision Pro」の関連記事はこちら。
雑誌『WIRED』日本版 VOL.52
「FASHION FUTURE AH!」は絶賛発売中!
ファッションとはつまり、服のことである。布が何からつくられるのかを知ることであり、拾ったペットボトルを糸にできる現実と、古着を繊維にする困難さについて考えることでもある。次の世代がいかに育まれるべきか、彼ら/彼女らに投げかけるべき言葉を真剣に語り合うことであり、クラフツマンシップを受け継ぐこと、モードと楽観性について洞察すること、そしてとびきりのクリエイティビティのもち主の言葉に耳を傾けることである。あるいは当然、テクノロジーが拡張する可能性を想像することでもあり、自らミシンを踏むことでもある──。およそ10年ぶりとなる『WIRED』のファッション特集。詳細はこちら。