Gemini के एआई मॉडल

Gemini Pro और Gemini Flash मॉडल फ़ैमिली, Android डेवलपर को कई मोड वाले एआई की सुविधाएं देती हैं. इनकी मदद से, क्लाउड में अनुमान लगाया जा सकता है और Android ऐप्लिकेशन में इमेज, ऑडियो, वीडियो, और टेक्स्ट इनपुट को प्रोसेस किया जा सकता है.

  • Gemini Pro: Gemini 2.5 Pro, Google का सबसे बेहतर थिंकिंग मॉडल है. यह कोड, गणित, और विज्ञान, प्रौद्योगिकी, इंजीनियरिंग, और गणित (एसटीईएम) से जुड़ी मुश्किल समस्याओं को हल कर सकता है. साथ ही, लंबे कॉन्टेक्स्ट का इस्तेमाल करके, बड़े डेटासेट, कोडबेस, और दस्तावेज़ों का विश्लेषण कर सकता है.
  • Gemini Flash: Gemini Flash मॉडल, अगली पीढ़ी की सुविधाएं और बेहतर सुविधाएं देते हैं. इनमें बेहतर स्पीड, पहले से मौजूद टूल का इस्तेमाल, और 10 लाख टोकन वाली कॉन्टेक्स्ट विंडो शामिल है.

Firebase एआई लॉजिक

Firebase एआई लॉजिक की मदद से, डेवलपर अपने ऐप्लिकेशन में Google के जनरेटिव एआई को सुरक्षित तरीके से और सीधे तौर पर जोड़ सकते हैं. इससे ऐप्लिकेशन डेवलप करने की प्रोसेस आसान हो जाती है. साथ ही, प्रोडक्शन के लिए तैयार होने के लिए, टूल और प्रॉडक्ट इंटिग्रेशन भी मिलते हैं. यह क्लाइंट को Android SDK टूल उपलब्ध कराता है, ताकि वे क्लाइंट कोड से Gemini API को सीधे तौर पर इंटिग्रेट और कॉल कर सकें. इससे, डेवलपमेंट को आसान बनाने के लिए बैकएंड की ज़रूरत नहीं होती.

एपीआई की सेवा देने वाली कंपनियां

Firebase के एआई लॉजिक की मदद से, Google Gemini API की सेवा देने वाली इन कंपनियों का इस्तेमाल किया जा सकता है: Gemini Developer API और Vertex AI Gemini API.

क्लाउड में Firebase से कनेक्ट करने के लिए, Firebase Android SDK टूल का इस्तेमाल करने वाले Android ऐप्लिकेशन को दिखाने वाला इलस्ट्रेशन. इसके बाद, एआई लॉजिक को दो तरीकों से इंटिग्रेट किया जाता है: Gemini Developer API या Google Cloud Platform का Vertex AI. दोनों ही Gemini Pro और Flash मॉडल का इस्तेमाल करते हैं.
पहली इमेज. Firebase एआई लॉजिक इंटिग्रेशन आर्किटेक्चर.

एपीआई की सेवा देने वाली हर कंपनी के बीच ये मुख्य अंतर हैं:

Gemini Developer API:

  • बिना किसी शुल्क के, मुफ़्त टीयर का इस्तेमाल शुरू करें. इसके लिए, क्रेडिट/डेबिट कार्ड की जानकारी देने की ज़रूरत नहीं है.
  • उपयोगकर्ताओं की संख्या बढ़ने के साथ-साथ, Gemini Developer API के पैसे चुकाकर इस्तेमाल किए जाने वाले टीयर पर अपग्रेड करें.
  • Google AI Studio का इस्तेमाल करके, प्रॉम्प्ट के साथ प्रयोग करें और उन्हें बार-बार इस्तेमाल करें. साथ ही, कोड स्निपेट भी पाएं.

Vertex AI Gemini API:

  • मॉडल को कहां से ऐक्सेस किया जाए, इस पर बेहतर कंट्रोल.
  • यह उन डेवलपर के लिए सबसे सही है जो पहले से ही Vertex AI/Google Cloud के नेटवर्क से जुड़े हैं.
  • Vertex AI Studio का इस्तेमाल करके, प्रॉम्प्ट के साथ प्रयोग करें और उन्हें बार-बार इस्तेमाल करें. साथ ही, कोड स्निपेट भी पाएं.

अपने ऐप्लिकेशन के लिए सही एपीआई प्रोवाइडर चुनना, आपके कारोबार और तकनीकी समस्याओं के साथ-साथ Vertex AI और Google Cloud के पारिस्थितिक तंत्र के बारे में जानकारी पर निर्भर करता है. Gemini Pro या Gemini Flash इंटिग्रेशन का इस्तेमाल शुरू करने वाले ज़्यादातर Android डेवलपर को, Gemini Developer API का इस्तेमाल करना चाहिए. मॉडल के कंस्ट्रक्टर में पैरामीटर बदलकर, सेवा देने वाली कंपनियों के बीच स्विच किया जाता है:

Kotlin

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.0-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

Java

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.0-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Firebase के एआई लॉजिक क्लाइंट एसडीके के साथ काम करने वाले, उपलब्ध जनरेटिव एआई मॉडल की पूरी सूची देखें.

Firebase की सेवाएं

Gemini API के ऐक्सेस के अलावा, Firebase एआई लॉजिक कई सेवाएं भी उपलब्ध कराता है. इनकी मदद से, अपने ऐप्लिकेशन में एआई की सुविधाओं को आसानी से डिप्लॉय किया जा सकता है और उन्हें प्रोडक्शन के लिए तैयार किया जा सकता है:

एप्लिकेशन चेक

Firebase App Check, ऐप्लिकेशन के बैकएंड को गलत इस्तेमाल से बचाता है. ऐसा करने के लिए, यह पक्का किया जाता है कि सिर्फ़ अनुमति वाले क्लाइंट ही संसाधनों को ऐक्सेस कर पाएं. यह Google की सेवाओं (इसमें Firebase और Google Cloud भी शामिल हैं) और कस्टम बैकएंड के साथ इंटिग्रेट होता है. ऐप्लिकेशन की जांच करने की सुविधा, Play Integrity का इस्तेमाल करके पुष्टि करती है कि अनुरोध, सही ऐप्लिकेशन और बिना छेड़छाड़ किए गए डिवाइस से किए गए हैं.

रिमोट कॉन्फ़िगरेशन

हमारा सुझाव है कि अपने ऐप्लिकेशन में मॉडल के नाम को हार्डकोड करने के बजाय, Firebase रिमोट कॉन्फ़िगरेशन का इस्तेमाल करके, सर्वर से कंट्रोल किए जाने वाले वैरिएबल का इस्तेमाल करें. इसकी मदद से, ऐप्लिकेशन के इस्तेमाल किए जा रहे मॉडल को डाइनैमिक तौर पर अपडेट किया जा सकता है. इसके लिए, आपको ऐप्लिकेशन का नया वर्शन डिप्लॉय करने या उपयोगकर्ताओं को नया वर्शन इस्तेमाल करने के लिए कहने की ज़रूरत नहीं है. मॉडल और प्रॉम्प्ट के A/B टेस्ट के लिए भी, रिमोट कॉन्फ़िगरेशन का इस्तेमाल किया जा सकता है.

एआई की मदद से मॉनिटर करना

एआई की सुविधाओं की परफ़ॉर्मेंस को समझने के लिए, Firebase कंसोल में एआई को मॉनिटर करने वाले डैशबोर्ड का इस्तेमाल किया जा सकता है. आपको Gemini API कॉल के इस्तेमाल के पैटर्न, परफ़ॉर्मेंस मेट्रिक, और डीबग करने से जुड़ी अहम जानकारी मिलेगी.

Firebase के एआई लॉजिक पर माइग्रेट करना

अगर आपके ऐप्लिकेशन में Firebase SDK टूल में पहले से ही Vertex AI का इस्तेमाल किया जा रहा है, तो माइग्रेट करने से जुड़ी गाइड पढ़ें.