Android XR SDK พร้อมใช้งานในเวอร์ชันตัวอย่างสำหรับนักพัฒนาแอปแล้ว เราอยากฟังความคิดเห็นจากคุณ โปรดไปที่
หน้าการสนับสนุนเพื่อติดต่อเรา
พัฒนาด้วย OpenXR
จัดทุกอย่างให้เป็นระเบียบอยู่เสมอด้วยคอลเล็กชัน
บันทึกและจัดหมวดหมู่เนื้อหาตามค่ากำหนดของคุณ
Android XR รองรับแอปที่สร้างด้วย OpenXR ผ่านการรองรับ
ข้อกำหนด OpenXR 1.1 และส่วนขยายของผู้ให้บริการบางราย
OpenXR เป็นมาตรฐานแบบเปิดที่ช่วยให้คุณสร้างประสบการณ์การใช้งานที่สมจริงและโต้ตอบได้
โดยใช้ชุด API ทั่วไปในอุปกรณ์ XR ที่หลากหลาย
ฟีเจอร์
Android XR รองรับฟีเจอร์ที่ช่วยให้คุณสร้างแอปที่ใช้ประโยชน์จากความสามารถเฉพาะตัวของอุปกรณ์ XR ได้อย่างเต็มที่โดยใช้ OpenXR ฟีเจอร์เหล่านี้
รวมถึงรายการต่อไปนี้
- แทร็กเกเบิล
- รองรับการตรวจจับระนาบ ซึ่งเป็นความสามารถในการระบุและ
ติดตามพื้นผิวเรียบภายในสภาพแวดล้อม ทำให้สามารถวาง
ออบเจ็กต์เสมือนจริงที่สัมพันธ์กับโลกจริงและAnchor ซึ่งเป็น
จุดอ้างอิงเสมือนจริงที่สามารถแนบกับออบเจ็กต์หรือ
ตำแหน่งในโลกจริงได้ เพื่อให้มั่นใจว่าเนื้อหาเสมือนจริงจะยังคงอยู่ในตำแหน่งและ
วางแนวอย่างถูกต้องแม้ว่าผู้ใช้จะเคลื่อนที่ไปรอบๆ
- Raycasting
- เทคนิคที่ใช้ในการกำหนดจุดตัดระหว่างรังสีเสมือนกับออบเจ็กต์ในฉาก ซึ่งช่วยให้เกิดการโต้ตอบ เช่น การเลือกและการจัดการองค์ประกอบเสมือน
- ความต่อเนื่องของ Anchor
- ความสามารถในการบันทึกและกู้คืน Anchor ในหลายเซสชัน
ซึ่งช่วยให้วางเนื้อหาเสมือนจริงในสภาพแวดล้อมได้อย่างต่อเนื่องและสอดคล้องกัน
- การติดตามออบเจ็กต์
- ความสามารถในการติดตามเมาส์ แป้นพิมพ์ และวัตถุอื่นๆ ใน
โลกแห่งความเป็นจริง
- การติดตามคิวอาร์โค้ด
- ความสามารถในการติดตามคิวอาร์โค้ดในสภาพแวดล้อมจริงและถอดรหัส
ข้อมูลของคิวอาร์โค้ด
- พื้นผิวความลึก
- การสร้างแผนที่ความลึกที่ให้ข้อมูลเกี่ยวกับ
ระยะห่างระหว่างกล้องกับออบเจ็กต์ในฉาก ซึ่งช่วยให้เกิดเอฟเฟกต์การบดบังและการโต้ตอบที่สมจริงยิ่งขึ้น
- การแสดงภาพ
- ความสามารถในการผสมผสานฟุตเทจจากกล้องในโลกจริงเข้ากับเนื้อหาเสมือน
เพื่อสร้างประสบการณ์ความเป็นจริงแบบผสมผสานที่ผสานโลกจริงและโลกดิจิทัลเข้าด้วยกันอย่างราบรื่น
- การเชื่อมโยงฉาก
- ความสามารถในการรับเมช 3 มิติของสภาพแวดล้อม ซึ่งสามารถ
ใช้สำหรับฟิสิกส์ การบดบัง และการโต้ตอบอื่นๆ ที่รับรู้โลก
- การส่งผ่านเลเยอร์การเรียบเรียง
- ช่วยให้สามารถใช้การวางซ้อนแบบพาสทรูของรูปหลายเหลี่ยม
การตัดเลเยอร์ออก ซึ่งใช้เพื่อนำวัตถุในโลกแห่งความเป็นจริงมาไว้ในฉากได้
- การติดตามใบหน้า
- ความสามารถในการติดตามลักษณะใบหน้าของผู้ใช้ ซึ่งช่วยให้
สร้างอวตารและตัวละครเสมือนที่สมจริงและสื่ออารมณ์ได้มากขึ้น
- การติดตามดวงตา
- ระบุตำแหน่งและทิศทางของดวงตาผู้ใช้ ซึ่ง
ออกแบบมาเพื่อให้ท่าทางของดวงตาสำหรับอวตารสมจริงยิ่งขึ้น
- การติดตามการเคลื่อนไหวของมือ
- ความสามารถในการติดตามตำแหน่งและการเคลื่อนไหวของมือผู้ใช้
- โครงข่ายมือ
- แสดงมือของผู้ใช้เป็นโมเดลตาข่ายแบบ Low Poly ได้อย่างแม่นยำ เพิ่มประสิทธิภาพสำหรับการนำส่งจากแพลตฟอร์มไปยังแอปพลิเคชันเพื่อให้มั่นใจว่าคุณจะได้รับประสิทธิภาพที่ดีที่สุด ซึ่งเป็นทางเลือกแทนส่วนขยายอื่นๆ
ที่ใช้ท่าผูกมัดและน้ำหนักการผสม
- การประมาณแสง
- ใช้สำหรับโมเดลแสงเพื่อให้ตรงกับสภาพแสงจริงของผู้ใช้
Android XR ยังรองรับอุปกรณ์อินพุตต่อไปนี้ด้วย
- การโต้ตอบด้วยมือ
- การจดจำท่าทางมือที่เฉพาะเจาะจง เช่น
การบีบ การปัด และการชี้ ซึ่งช่วยให้ผู้ใช้โต้ตอบกับวัตถุเสมือน
โดยใช้ท่าทางและการเคลื่อนไหวของมือ
- การโต้ตอบด้วยการจ้องด้วยตา
- ความสามารถในการติดตามการเคลื่อนไหวของดวงตาผู้ใช้
เพื่อให้ผู้ใช้เลือกและโต้ตอบกับออบเจ็กต์เสมือนได้โดยใช้สายตา
- คอนโทรลเลอร์การเคลื่อนไหว 6DoF
- ความสามารถในการติดตามตำแหน่งและการเคลื่อนไหวของคอนโทรลเลอร์ รวมถึงการเชื่อมโยง Dpad และปุ่มสำหรับการเรียกใช้การดำเนินการ หรือเหตุการณ์การวางเมาส์เหนือภายในแอปพลิเคชัน
- การโต้ตอบด้วยเมาส์
- ความสามารถของผู้ใช้ในการโต้ตอบกับออบเจ็กต์ผ่านเคอร์เซอร์เมาส์ในพื้นที่ 3 มิติ
Android XR รองรับฟีเจอร์ที่เกี่ยวข้องกับประสิทธิภาพต่อไปนี้
- Foveation ที่ติดตามดวงตา
- อนุญาตให้แอปแสดงเนื้อหาที่มีความละเอียดสูงขึ้นเฉพาะ
ที่จุดโฟกัสของดวงตา
- วาร์ปอวกาศ
- ใช้เวกเตอร์ความเร็วและข้อมูลพื้นผิวเชิงลึกเพื่อ
สร้างเฟรมแทรก ซึ่งจะช่วยเพิ่มอัตราเฟรมที่จำเป็นต่อการ
ทำให้ผู้ใช้ดื่มด่ำกับประสบการณ์ของคุณได้อย่างมีประสิทธิภาพ
- เมตริกประสิทธิภาพ
- แสดงเมตริกประสิทธิภาพของ Android XR ที่รันไทม์ของ
อุปกรณ์ XR, Compositor และแอปพลิเคชัน XR ปัจจุบัน ซึ่งรวมถึงเวลาที่ใช้ในการแสดงผลเฟรมของ CPU, เวลาที่ใช้ในการแสดงผลเฟรมของ GPU, การใช้งาน GPU, ความถี่ของ CPU, เฟรมต่อวินาที
และอื่นๆ
ดูรายการฟีเจอร์และ
ส่วนขยายทั้งหมดที่รองรับได้ที่ภาพรวมฟีเจอร์ OpenXR
เครื่องมือที่รองรับ
Unity
การรองรับ Unity ของ Android XR ซึ่งสร้างขึ้นบน OpenXR ช่วยให้นักพัฒนาแอปสร้าง
ประสบการณ์การใช้งานโดยใช้ Unity 6 ได้ ดูข้อมูลเพิ่มเติมเกี่ยวกับการสร้างแอป XR ด้วย Unity ในภาพรวมของ Unity
OpenXR™ และโลโก้ OpenXR เป็นเครื่องหมายการค้าของ The Khronos Group Inc.
และจดทะเบียนเป็นเครื่องหมายการค้าในจีน
สหภาพยุโรป ญี่ปุ่น และสหราชอาณาจักร
ตัวอย่างเนื้อหาและโค้ดในหน้าเว็บนี้ขึ้นอยู่กับใบอนุญาตที่อธิบายไว้ในใบอนุญาตการใช้เนื้อหา Java และ OpenJDK เป็นเครื่องหมายการค้าหรือเครื่องหมายการค้าจดทะเบียนของ Oracle และ/หรือบริษัทในเครือ
อัปเดตล่าสุด 2025-07-30 UTC
[[["เข้าใจง่าย","easyToUnderstand","thumb-up"],["แก้ปัญหาของฉันได้","solvedMyProblem","thumb-up"],["อื่นๆ","otherUp","thumb-up"]],[["ไม่มีข้อมูลที่ฉันต้องการ","missingTheInformationINeed","thumb-down"],["ซับซ้อนเกินไป/มีหลายขั้นตอนมากเกินไป","tooComplicatedTooManySteps","thumb-down"],["ล้าสมัย","outOfDate","thumb-down"],["ปัญหาเกี่ยวกับการแปล","translationIssue","thumb-down"],["ตัวอย่าง/ปัญหาเกี่ยวกับโค้ด","samplesCodeIssue","thumb-down"],["อื่นๆ","otherDown","thumb-down"]],["อัปเดตล่าสุด 2025-07-30 UTC"],[],[],null,["# Develop with OpenXR\n\nAndroid XR supports apps built with [OpenXR](https://www.khronos.org/openxr/) through its support\nfor the [OpenXR 1.1 specification and select vendor extensions](https://registry.khronos.org/OpenXR/specs/1.1/html/xrspec.html).\nOpenXR is an open standard that lets you create immersive and interactive\nexperiences using a common set of APIs across a wide range of XR devices.\n\nFeatures\n--------\n\nAndroid XR supports features that allow you to build apps that take full\nadvantage of the unique capabilities of XR devices, using OpenXR. These features\ninclude the following.\n\nTrackables\n: Supports *plane detection* , which is the ability to identify and\n track flat surfaces within the environment, enabling the placement of\n virtual objects in relation to the real world and *Anchors* which are\n virtual points of reference that can be attached to real-world objects or\n locations, ensuring that virtual content remains accurately positioned and\n oriented even as the user moves around.\n\nRaycasting\n: A technique used to determine the intersection point between a\n virtual ray and objects in the scene, facilitating interactions such as\n selecting and manipulating virtual elements.\n\nAnchor persistence\n: The capability to save and restore anchors across multiple\n sessions, allowing for persistent and consistent placement of virtual\n content within the environment.\n\nObject tracking\n: The ability to track mouse, keyboard and other objects in the\n real-world.\n\nQR Code tracking\n: The ability to track QR Codes in the physical environment and decode\n their data.\n\nDepth textures\n: The generation of depth maps that provide information about the\n distance between the camera and objects in the scene, enabling more\n realistic occlusion and interaction effects.\n\nPassthrough\n: The ability to blend real-world camera footage with virtual\n content, creating a mixed reality experience that seamlessly combines the\n physical and digital worlds.\n\nScene meshing\n: The ability to acquire a 3D mesh of the environment, which can be\n used for physics, occlusion, and other world-aware interactions.\n\nComposition layer passthrough\n: Allows for a polygon passthrough composition\n layer cutout, can be used for bringing real world objects into a scene.\n\nFace tracking\n: The ability to track the features of the user's face, enabling\n the creation of more realistic and expressive avatars and virtual\n characters.\n\nEye tracking\n: Provides position and orientation of the user's eye, which is\n designed to make eye pose for avatars more realistic.\n\nHand tracking\n: The ability to track the position and movement of the user's hands.\n\nHand mesh\n: Provides an accurate representation of the user's hands as a low\n poly mesh. Optimized for platform-to-application delivery to make sure you\n get the best performance possible. This is an alternative to other\n extensions which use a bind pose and blend weights.\n\nLight estimation\n: Used for lighting models to match the user's real world lighting conditions.\n\nSupported input devices\n-----------------------\n\nAndroid XR also supports the following input devices.\n\nHand Interaction\n: The recognition of specific hand gestures, such as\n pinching, swiping, and pointing, enabling the users to interact with virtual\n objects using gestures and hand movements.\n\nEye Gaze Interaction\n: The ability to track the user's eye movements,\n allowing them to select and interact with virtual objects using their gaze.\n\n6DoF Motion Controllers\n: The ability to track the controllers position and\n movement along with Dpad and button bindings for triggering actions, or\n hover events within the application.\n\nMouse Interaction\n: The ability for users to interact with objects through a\n mouse pointer in 3D space\n\nSupported performance features\n------------------------------\n\nAndroid XR supports the following performance-related features.\n\nEye-tracked foveation\n: Allows an app to render higher resolution content only\n at the eyes focal point.\n\nSpace warp\n: Uses velocity vectors and depth texture information to\n generate tween frames which effectively boosts the framerate required to\n keep your users immersed in your experiences\n\nPerformance metrics\n: Provides Android XR performance metrics at runtime of\n the current XR device, compositor, and XR application. This includes cpu\n frametime, gpu frame time, gpu utilization, cpu frequency, frames per second\n and [more](/develop/xr/openxr/extensions/XR_ANDROID_performance_metrics).\n\nSee the [OpenXR Feature Overview](/develop/xr/openxr/extensions) for a full list of supported features and\nextensions.\n\nSupported engines\n-----------------\n\n| **Note:** The [Android XR emulator](/develop/xr/jetpack-xr-sdk/studio-tools#android-xr) is not supported for Unity or OpenXR apps.\n\nUnity\n-----\n\nAndroid XR's Unity support, built on top of OpenXR, allows developers to create\nexperiences using Unity 6. Learn more about building XR apps with Unity in the\n[Unity overview](/develop/xr/unity).\n\n*** ** * ** ***\n\nOpenXR™ and the OpenXR logo are trademarks owned\nby The Khronos Group Inc. and are registered as a trademark in China,\nthe European Union, Japan and the United Kingdom."]]