Apple Vision Pro体験をプロダクトマネージャー・開発者な視点でレポ
(デモが終わってすぐの走り書きなので、後から整えたい)
Apple Vision Proのデモに行ってきた。
所感として、「XR端末が台頭する未来があるとしたらこっちの方角だ」と体感できた。
でも、スマホやPCを置き換える可能性までを見ることはできなかった。スマートウォッチみたいな補助的なデバイスとしてならぜんぜんあり得ると思う。
30分の短いデモだけで結論づけることはできないので、もう一度デモに行きたい。
(スタッフさんの話では「予約すれば何度でも体験できますよ」とのこと)
デモ内容
自分が体験したデモの内容としては以下。基本的にはスタッフさんがガイドしてくれるが、これを触りたいと言えば触らせてくれる感じ。
- フィッティング
- メガネを専用機械に通して視力を測定
- iPhoneを使って頭の形や大きさを測定
- 基本的な操作説明を聞きながら初期設定
- デバイス位置・付け心地の調整
- 視線トラッキングの調整
- 各アプリ体験
- 写真
- 普通の写真
- パノラマ
- 3D写真
- 3Dビデオ
- Apple TV
- イマーシブ度の調整
- 映画館モード
- Safari
- スクロールやページ遷移
- 文字入力
- フリーボード
- お絵描き
- 3Dオブジェクトの移動・リサイズ・回転
- 写真
- イマーシブビデオの鑑賞
- ハイライン・サーフィン・パルクール・バスケ・サッカーなど、エクストリームから球技までの様々なスポーツが目の前で展開される
- サバンナのような大自然の中で動物の群れが直近に迫ってくる
- ちらっと恐竜
スタッフさんはやっぱり映像体験を訴求していた。
確かにイマーシブビデオの迫力はすごいし、普段はやらないスポーツ観戦だけどこれだったら見てみたいと思った。
Apple TVの映画館モードも、作品の映像美を自宅で堪能するにはかなり良さそう。
音量控えめだったのもあるかもしれないが音質は満足しきれなかったので別でイヤホンを用意したくはなりそう。
個人的には、映画だと耳だけでなく身体に伝わってくる重低音も欲しいので、ホームシアター用のオーディオセットが使いたくなる。
ただ、公式の映像で強調されていたほどの没入感は得られなかったのが正直な感想。
没入感の観点で一番のネックだったのがゴーグルの枠が視界に入ってくるところ。これはハードウェアの進化で解決されるかもしれない。
あとは視野角90度と狭めなせいか、視界全体が空間コンピューティングに取り込まれる感覚も強くなかった。
空間コンピューティングの是非
さて、個人的には気になっていた「空間コンピューティング」の評価。
ふだん使いを考えると、周囲の環境から断絶されることなく視界の大半をアプリケーションに使えることのメリットは大きい。
それを「空間コンピューティング」というコンセプトでOSレベルから作り込まれた高い完成度で示してくれた点でVision Pro・visionOSはすごい。
ただ、従来のスマホやPCによる体験を「平面コンピューティング」と呼ぶなら、空間コンピューティングが平面コンピューティングを置き換えられるかについては、確信を持てずにいる。
確かに平面コンピューティングと同等の体験は提供できる。
マウスやタッチスクリーンの代わりにとなる視線トラッキング+タップジェスチャー(人差し指と中指をくっつける)は上手く機能していたし、ウィンドウやオブジェクトのドラッグ&ドロップやピンチイン&アウトもタッチスクリーンと同じ感覚で直感的にできる。
ウィンドウを上下左右に並べて複数のアプリケーションを同時に扱うのも困難なくできそうだった。
デモで試した各アプリのUIも、iOSやiPadOSに慣れている人ならなんら不便なく使えそう。
ただ、少なくとも30分のデモだけでは、空間コンピューティングならではの利点は、現状のハードウェア・ソフトウェアが持つ欠点を上回るものだと実感することはできなかった。
利点
- スマホやPCよりも視界に占める利用可能な領域が格段に広く、圧倒的な量のコンテンツを眼前に広げながらリッチな体験を提供できる
- 3次元のジェスチャーを活用すれば、何かを引き寄せたり押し出したり、タッチデバイスにはできない操作感を実現できる(はず?)
欠点・惜しい点
- 現時点では重さや締め付けによる身体への負荷はやっぱりあってスマホやPCほど長時間使用に耐えられるハードウェアではないこと
- 開発者は別として、一般人がふだん使いのために手を出せる価格ではないこと
- 没入感を実現するために割かれるコンピューティングリソースがおそらく多く、従来のデバイスと比べて、同等スペックでも本質的なタスクに割けるリソースの量が相対的に少なくなりそう
- オブジェクトを間接的に扱う「視線+ジェスチャー」というポインティング方法は平面コンピューティングより優れているとは言えず、空間コンピューティングを最大限に実現するのであればジェスチャー単体でオブジェクトに直接触れて操作を加えられるほうが圧倒的にいいはず
- おそらくジェスチャー単体は技術的に難しかったがゆえの「視線+ジェスチャー」なのでは?
- 今のハードウェアだと、オブジェクトに直接触れても触覚的なフィードバックを得られない点は大きそう
- Safariでソフトウェアキーボードを使ったが、キーに指がめり込んで触覚的なフィードバックがない違和感はかなり大きく、その場では全くうまく使いこなせなかった
今後の進化に期待したいところではあるが、結局スマホとPCでいいんじゃね?というのを乗り越えられるものになるかはまだまだわからない。
ユーザーとしてではなく開発者として空間コンピューティングに賭けるべきかは悩ましい...。もう一回デモに行きたい。
Discussion