UnityとVision Pro(2) Unity PolySpatial Samplesの実機での動画と作成手順

広告:超オススメUnity Asset
  広告:超オススメUnity Asset

UnityでvisionOS用のMR(複合現実:現実世界と仮想世界を融合させた技術や体験)がどのようなものなのか実機で確認した動画です。PolySpatialという機能拡張をUnityに加え、そのサンプル群をざっと試してみています(PolySpatial Mixed Reality App)。シミュレータでも箱型アプリの多くは試せますが、空間を利用したものは実機でないと動作しませんでした。(今回のはUnity 6000.3.31f1でビルドしてます)

サンプルの開始位置

  1. Targeted Input (00:16)
  2. uGUI (00:29)
  3. Input Debug (00:52)
  4. Object Manipulation (01:20)
  5. Character Navigation (01:46)
  6. Mixed Reality (02:01)
  7. Image Tracking (02:52)
  8. Object Tracking (04:11)
  9. Swift UI (04:28)
  10. Meshing (04:52) ←これ面白い
  11. Portal (06:33)
  12. Particles (08:36)
  13. Lights (09:21)
  14. Blendshapes (09:50)
  15. Resizable Volumes (10:10)
  16. Billboard Component (11:08)

作成手順

  1. ここの「Immersive App Template」からリンクされている visionOS Template ページから「visionOSTemplate-2.1.2.zip」をダウンロードし、これを元にするのが早そう。
  2. Unity HubでAddし、Editor Versionは、最新のLTS(ここではvisionOSサポートをインストール済みの6000.0.31f1)で開く。開くときエラーが出たりした時は、開いた後、一旦閉じてまた開くと良さそう。
  3. Build ProfilesでPlatformをvisionOSにし、Project Settings > XR Plug-in Management で「Apple visionOS」にチェック(すでにチェックされている)。
  4. Window > Package Managerを開き、「poly」を検索し、「PolySpatial(2.1.2)」を選ぶと「Samples」というタブがあります。「Unity PolySpatial Samples」の「Import」を押します。
  5. Assets/Samples/PolySpatial/Scenes にあるシーンをすべて、Build ProfilesのScene Listへドラッグ&ドロップで追加します。「ProjectLauncher」シーンを一番上の0番目にしておきます。
  6. UnityからvisionOSビルドを書き出し。
  7. Xcodeでプロジェクトを開き、あとは「UnityとVision Pro(1) 開発準備編」の実機確認。(シミュレーターで動くサンプルもいくつかあります)

05

 

おまけ

以下、新規作成からのMEMOですが、最終的にXcodeのビルド時にエラーが出て実機確認できなかったのですが、一応残しておきます。上記、「Immersive App Template」を元にするのが早そうです。

  1. 新規作成時に6000.0.31f1を選び、Mixed Reality (MR) Core テンプレートで新規作成。
  2. Build ProfilesでPlatformをvisionOSにし、Project Settings > XR Plug-in Management で「Apple visionOS」にチェック。
  3. XR Plug-in Management 以下のApple visionOSでApp Modeを「RealityKit with PolySpatial」にすると、「Install PolySpatial」というダイアログが出るのでYes。Package Managerで「PolySpatial visionOS」機能拡張をインストールしたのと同じ状態に。
  4. XR Plug-in Management 以下のProject Validationで「Fix All」を押しておきましょう。
  5. Apple visionOSのHands Tracking Usage Descriptionに「Hand tracking required for interaction(日本語なら「ハンドトラッキングを使用して操作を行います」)」と、World Sensing Usage Descriptionに「World sensing required for plane detection(日本語なら「平面検出のためにワールドセンシングを使用します」)」と入れておきましょう。
  6. 「IL2CPP Large Exe Workaround」もチェック。(これをチェックしないとXcodeのビルド時にエラーが出ます)
  7. この時点で、「XR Hands」などのサンプルもありますが、上記動画にあるPolySpatialのサンプルをインストールします。
  8. Window > Package Managerを開き、「In Project」で「poly」を検索し、「PolySpatial(2.1.2)」を選ぶと「Samples」というタブがあります。(Unity Registryの方で検索したものには、Samplesタブがないので要注意)「Unity PolySpatial Samples」の「Import」を押します。再度エラーが見つかるので、Project Validationで「Fix All」を押します。
  9. Assets/Samples/PolySpatial/Scenes にあるシーンをすべて、Build ProfilesのScene Listへドラッグ&ドロップで追加します。「ProjectLauncher」シーンを一番上の0番目にしておきます。
  10. UnityからvisionOSビルドを書き出し
  11. Xcodeでプロジェクトを開き、あとは「UnityとVision Pro(1) 開発準備編」の実機確認。(シミュレーターで動くサンプルもいくつかあります)
  12. この手順ではXcodeビルド時にエラーでした・・・

 

このシリーズの続きは「UnityとVision Pro(3) Play to Device 試してみた」で。