एआई चश्मों के लिए, Gemini Live API के साथ इंटिग्रेट करना

एक्सआर की सुविधा वाले डिवाइस
इस गाइड की मदद से, इन तरह के एक्सआर डिवाइसों के लिए अनुभव बनाए जा सकते हैं.
एआई चश्मा

Gemini Live API, उपयोगकर्ताओं के साथ बातचीत करने के लिए इंटरफ़ेस लागू करने का एक बेहतर समाधान उपलब्ध कराता है. Android XR के लिए ऐप्लिकेशन बनाते समय, Firebase AI Logic के ज़रिए Gemini Live API को इंटिग्रेट किया जा सकता है. टेक्स्ट को आवाज़ में बदलने (टीटीएस) और अपने-आप बोली की पहचान करने (एएसआर) की सुविधा इस्तेमाल करने के बजाय, Gemini Live API ऑडियो इनपुट और आउटपुट, दोनों को आसानी से हैंडल करता है. Gemini Live API के लिए, इंटरनेट कनेक्शन का हमेशा चालू रहना ज़रूरी है. साथ ही, इसके लिए शुल्क लगता है. यह हर प्रोजेक्ट के लिए, एक साथ कुछ ही कनेक्शन के साथ काम करता है. साथ ही, गड़बड़ी की स्थितियों या उपयोगकर्ता से जुड़ी अन्य ज़रूरी बातचीत को मैनेज करने के लिए, यह सबसे सही विकल्प नहीं हो सकता. खास तौर पर, ऐसे एआई चश्मों के लिए जिनमें डिसप्ले नहीं होता.

ऑडियो इंटरफ़ेस के साथ काम करने के अलावा, Gemini Live API का इस्तेमाल करके एजेंट जैसे अनुभव भी बनाए जा सकते हैं.

Gemini Live API का इस्तेमाल शुरू करने के लिए, Gemini Live API गाइड में दिए गए चरणों का पालन करें. इसमें LiveGenerativeModel को इंस्टैंटिएट और कॉन्फ़िगर करने, LiveSession को सेट अप करने, और कस्टम FunctionDeclaration इंस्टेंस बनाने का तरीका बताया गया है. इससे आपका ऐप्लिकेशन, Gemini से मिले अनुरोधों को प्रोसेस कर पाता है.