Android XR SDK がデベロッパー プレビューで利用可能になりました。Google では皆様からのご意見やご感想をお待ちしています。
サポートページからお問い合わせください。
OpenXR で開発する
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
Android XR は、OpenXR 1.1 仕様と一部のベンダー拡張機能のサポートを通じて、OpenXR で構築されたアプリをサポートします。OpenXR は、さまざまな XR デバイスで共通の API セットを使用して没入型でインタラクティブなエクスペリエンスを作成できるオープン スタンダードです。
機能
Android XR は、OpenXR を使用して XR デバイスの独自の機能を最大限に活用するアプリを構築できる機能をサポートしています。主な機能は次のとおりです。
- Trackables
- 平面検出をサポートしています。これは、環境内の平面を識別して追跡する機能で、現実世界とアンカーに関連して仮想オブジェクトを配置できます。アンカーは、現実世界のオブジェクトや位置に付加できる仮想参照ポイントで、ユーザーが移動しても仮想コンテンツが正確に配置され、向きが維持されます。
- レイキャスト
- 仮想レイとシーン内のオブジェクトの交点を特定するために使用される手法。仮想要素の選択や操作などのインタラクションを容易にします。
- アンカーの永続性
- 複数のセッションにわたってアンカーを保存して復元する機能。これにより、環境内で仮想コンテンツを永続的かつ一貫して配置できます。
- オブジェクト トラッキング
- 現実世界のマウス、キーボード、その他のオブジェクトを追跡する機能。
- QR コードのトラッキング
- 物理環境で QR コードを追跡し、そのデータをデコードする機能。
- 深度テクスチャ
- カメラとシーン内のオブジェクト間の距離に関する情報を提供するデプスマップの生成。これにより、よりリアルなオクルージョンとインタラクション効果を実現できます。
- パススルー
- 現実世界のカメラ映像と仮想コンテンツをブレンドし、現実世界とデジタル世界をシームレスに組み合わせた複合現実体験を生み出す機能。
- シーン メッシュ
- 環境の 3D メッシュを取得する機能。物理演算、オクルージョン、その他の世界認識型インタラクションに使用できます。
- コンポジション レイヤのパススルー
- ポリゴン パススルー合成レイヤの切り抜きを可能にします。現実世界のオブジェクトをシーンに組み込むために使用できます。
- 顔追跡
- ユーザーの顔の特徴を追跡する機能。よりリアルで表現力豊かなアバターやバーチャル キャラクターを作成できます。
- アイ トラッキング
- ユーザーの目の位置と向きを提供します。アバターの目のポーズをよりリアルにするために設計されています。
- ハンド トラッキング
- ユーザーの手の位置と動きを追跡する機能。
- 手のメッシュ
- ユーザーの手をローポリ メッシュとして正確に表現します。プラットフォームからアプリケーションへの配信に最適化されており、可能な限り最高のパフォーマンスを実現します。これは、バインド ポーズとブレンド ウェイトを使用する他の拡張機能の代替手段です。
- 光の推定
- ユーザーの現実世界の照明条件に合わせて照明モデルを調整するために使用されます。
Android XR は、次の入力デバイスもサポートしています。
- 手の操作
- ピンチ、スワイプ、ポイントなどの特定のハンド ジェスチャーを認識し、ユーザーがジェスチャーや手の動きで仮想オブジェクトを操作できるようにします。
- 視線操作
- ユーザーの視線の動きを追跡し、視線を使って仮想オブジェクトを選択して操作できる機能。
- 6DoF モーション コントローラ
- コントローラの位置と動きを追跡し、D-pad とボタンのバインディングを使用して、アプリ内のアクションやホバーイベントをトリガーする機能。
- マウス操作
- 3D 空間でマウス ポインタを使用してオブジェクトを操作する機能
Android XR は、パフォーマンス関連の次の機能をサポートしています。
- アイトラッキングによるフォービエーション
- アプリが目の焦点でのみ高解像度コンテンツをレンダリングできるようにします。
- Space warp
- 速度ベクトルと深度テクスチャ情報を使用して、ユーザーがエクスペリエンスに没頭し続けるために必要なフレームレートを効果的に高めるトゥイーン フレームを生成します。
- 掲載結果の指標
- 現在の XR デバイス、コンポジタ、XR アプリケーションの実行時に Android XR のパフォーマンス指標を提供します。これには、CPU フレーム時間、GPU フレーム時間、GPU 使用率、CPU 周波数、フレームレートなどが含まれます。
サポートされている機能と拡張機能の全一覧については、OpenXR 機能の概要をご覧ください。
サポートされているエンジン
Unity
Android XR の Unity サポートは OpenXR 上に構築されており、デベロッパーは Unity 6 を使用してエクスペリエンスを作成できます。Unity を使用した XR アプリの作成について詳しくは、Unity の概要をご覧ください。
OpenXR™ および OpenXR のロゴは、Khronos Group Inc. が所有する商標であり、中国、欧州連合、日本、英国で商標として登録されています。
このページのコンテンツやコードサンプルは、コンテンツ ライセンスに記載のライセンスに従います。Java および OpenJDK は Oracle および関連会社の商標または登録商標です。
最終更新日 2025-07-30 UTC。
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["必要な情報がない","missingTheInformationINeed","thumb-down"],["複雑すぎる / 手順が多すぎる","tooComplicatedTooManySteps","thumb-down"],["最新ではない","outOfDate","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["サンプル / コードに問題がある","samplesCodeIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2025-07-30 UTC。"],[],[],null,["# Develop with OpenXR\n\nAndroid XR supports apps built with [OpenXR](https://www.khronos.org/openxr/) through its support\nfor the [OpenXR 1.1 specification and select vendor extensions](https://registry.khronos.org/OpenXR/specs/1.1/html/xrspec.html).\nOpenXR is an open standard that lets you create immersive and interactive\nexperiences using a common set of APIs across a wide range of XR devices.\n\nFeatures\n--------\n\nAndroid XR supports features that allow you to build apps that take full\nadvantage of the unique capabilities of XR devices, using OpenXR. These features\ninclude the following.\n\nTrackables\n: Supports *plane detection* , which is the ability to identify and\n track flat surfaces within the environment, enabling the placement of\n virtual objects in relation to the real world and *Anchors* which are\n virtual points of reference that can be attached to real-world objects or\n locations, ensuring that virtual content remains accurately positioned and\n oriented even as the user moves around.\n\nRaycasting\n: A technique used to determine the intersection point between a\n virtual ray and objects in the scene, facilitating interactions such as\n selecting and manipulating virtual elements.\n\nAnchor persistence\n: The capability to save and restore anchors across multiple\n sessions, allowing for persistent and consistent placement of virtual\n content within the environment.\n\nObject tracking\n: The ability to track mouse, keyboard and other objects in the\n real-world.\n\nQR Code tracking\n: The ability to track QR Codes in the physical environment and decode\n their data.\n\nDepth textures\n: The generation of depth maps that provide information about the\n distance between the camera and objects in the scene, enabling more\n realistic occlusion and interaction effects.\n\nPassthrough\n: The ability to blend real-world camera footage with virtual\n content, creating a mixed reality experience that seamlessly combines the\n physical and digital worlds.\n\nScene meshing\n: The ability to acquire a 3D mesh of the environment, which can be\n used for physics, occlusion, and other world-aware interactions.\n\nComposition layer passthrough\n: Allows for a polygon passthrough composition\n layer cutout, can be used for bringing real world objects into a scene.\n\nFace tracking\n: The ability to track the features of the user's face, enabling\n the creation of more realistic and expressive avatars and virtual\n characters.\n\nEye tracking\n: Provides position and orientation of the user's eye, which is\n designed to make eye pose for avatars more realistic.\n\nHand tracking\n: The ability to track the position and movement of the user's hands.\n\nHand mesh\n: Provides an accurate representation of the user's hands as a low\n poly mesh. Optimized for platform-to-application delivery to make sure you\n get the best performance possible. This is an alternative to other\n extensions which use a bind pose and blend weights.\n\nLight estimation\n: Used for lighting models to match the user's real world lighting conditions.\n\nSupported input devices\n-----------------------\n\nAndroid XR also supports the following input devices.\n\nHand Interaction\n: The recognition of specific hand gestures, such as\n pinching, swiping, and pointing, enabling the users to interact with virtual\n objects using gestures and hand movements.\n\nEye Gaze Interaction\n: The ability to track the user's eye movements,\n allowing them to select and interact with virtual objects using their gaze.\n\n6DoF Motion Controllers\n: The ability to track the controllers position and\n movement along with Dpad and button bindings for triggering actions, or\n hover events within the application.\n\nMouse Interaction\n: The ability for users to interact with objects through a\n mouse pointer in 3D space\n\nSupported performance features\n------------------------------\n\nAndroid XR supports the following performance-related features.\n\nEye-tracked foveation\n: Allows an app to render higher resolution content only\n at the eyes focal point.\n\nSpace warp\n: Uses velocity vectors and depth texture information to\n generate tween frames which effectively boosts the framerate required to\n keep your users immersed in your experiences\n\nPerformance metrics\n: Provides Android XR performance metrics at runtime of\n the current XR device, compositor, and XR application. This includes cpu\n frametime, gpu frame time, gpu utilization, cpu frequency, frames per second\n and [more](/develop/xr/openxr/extensions/XR_ANDROID_performance_metrics).\n\nSee the [OpenXR Feature Overview](/develop/xr/openxr/extensions) for a full list of supported features and\nextensions.\n\nSupported engines\n-----------------\n\n| **Note:** The [Android XR emulator](/develop/xr/jetpack-xr-sdk/studio-tools#android-xr) is not supported for Unity or OpenXR apps.\n\nUnity\n-----\n\nAndroid XR's Unity support, built on top of OpenXR, allows developers to create\nexperiences using Unity 6. Learn more about building XR apps with Unity in the\n[Unity overview](/develop/xr/unity).\n\n*** ** * ** ***\n\nOpenXR™ and the OpenXR logo are trademarks owned\nby The Khronos Group Inc. and are registered as a trademark in China,\nthe European Union, Japan and the United Kingdom."]]