Unity x Quest 視差の世界に挑む
「左右の目に違う映像を出すって、簡単じゃないの?」と思ったあなたへ
Unity × Questで“視差の制御”に挑んだ、実践ゼロからのXR開発記録
Unityも、VRも、触ったことがない。
でも、Meta Questを手にして思いました。
「左右の目に別々の映像を出して、視力トレーニングができるアプリを作りたい」
はじめに
私はソフトウェアのエンジニアではありません。
大学時代にBASICやC言語をかじった程度で、
本格的にソフトウェアを「ちゃんと」学んだことはありません。
本職は電気・電子工学寄りで、仕事ではHMI研究開発やプロダクトのPdMなどの経験を経て
現在は、XR領域を活用したサービス企画開発の領域を大企業の中でリードしています。
でも実は、Unityを使ったプロジェクトのリーダーを務めていながら、
自分自身ではUnityを一度も触ったことがなかったのです。
それでも作ってみたくなった理由
家族の視力の問題がきっかけでした。
コロナ疾患による副作用で高齢のオヤジの目にトラブルが起こってしまったのです。
うまく進まない大学病院での治療。。
市販の視力アプリではできない「左右の目それぞれに、異なる映像を見せてトレーニングする」
というアイデアが浮かびました。
- VRならできるかもしれない
- Meta Questなら手軽に
再現できるかもしれない
でも、「実際にどうやって作ればいいのか」は全くわかりませんでした。
そこで私は決めました
「そうだ、ChatGPTにサポートしてもらおう」
Unityのプロジェクト立ち上げから、環境構築、コードの書き方まで。
全部、手探り。だけど一人じゃない。
このZenn記事は、そんな私がChatGPTと一緒にUnity×Quest開発に挑んだ記録です。
「左右の目に違う映像を出す」って、意外と難しい?
理屈ではできそうに思えるこの機能。
実際には、
-
unity_StereoEyeIndex
が効かない? - URPで左右の描画が分離されない?
- シングルパス?マルチパス?何が正解?
といった「沼ポイント」に何度もハマりました。
このZennで書いていくこと
このシリーズでは、
- Unity初心者がQuest向けにアプリ開発を始めるステップ
- 「左右の目で異なる映像を描画する」という実装と試行錯誤
- 開発環境、シェーダー、描画モード、そしてChatGPTの活用法
を、ひとつひとつ丁寧に書き残していきます。
「開発経験は浅いけど、自分でもやってみたい」
「ChatGPTと一緒なら、自分にもできるかも?」
そんなふうに思っている人にこそ読んでほしい、
**“実践ゼロからのXR開発日記”**です。
さあ、ここから一緒に始めましょう。
Discussion