ผสานรวมกับ Gemini Live API สำหรับแว่นตา AI

อุปกรณ์ XR ที่ใช้ได้
คำแนะนำนี้จะช่วยให้คุณสร้างประสบการณ์การใช้งานสำหรับอุปกรณ์ XR ประเภทต่างๆ เหล่านี้ได้
แว่นตา AI

Gemini Live API มีโซลูชันที่ครอบคลุมสำหรับการ ติดตั้งอินเทอร์เฟซแบบสนทนากับผู้ใช้ เมื่อสร้างแอปสำหรับ Android XR คุณจะผสานรวมกับ Gemini Live API ผ่าน Firebase AI Logic ได้ Gemini Live API จะจัดการทั้งอินพุตและเอาต์พุตเสียงได้อย่างราบรื่น ซึ่งแตกต่างจากการใช้การอ่านออกเสียงข้อความ (TTS) และการจดจำคำพูดอัตโนมัติ (ASR) Gemini Live API ต้องใช้การเชื่อมต่ออินเทอร์เน็ตที่เสถียร มีค่าใช้จ่าย รองรับการเชื่อมต่อพร้อมกันจำนวนจำกัดต่อ โปรเจ็กต์ และอาจไม่เหมาะสำหรับการจัดการข้อผิดพลาดหรือการสื่อสารที่สำคัญอื่นๆ กับผู้ใช้ โดยเฉพาะอย่างยิ่งในแว่นตา AI ที่ไม่มีจอแสดงผล

นอกจากจะรองรับอินเทอร์เฟซเสียงแล้ว คุณยังใช้ Gemini Live API เพื่อสร้างประสบการณ์การใช้งานแบบเอเจนต์ได้ด้วย

หากต้องการเริ่มต้นใช้งาน Gemini Live API ให้ทำตามขั้นตอนที่ระบุไว้ในคู่มือ Gemini Live API โดยจะแนะนำขั้นตอนการสร้างอินสแตนซ์และการกำหนดค่า LiveGenerativeModel การสร้าง LiveSession และการสร้างอินสแตนซ์ FunctionDeclaration ที่กำหนดเองซึ่งช่วยให้แอปประมวลผลคำขอจาก Gemini ได้