Gemini के एआई मॉडल

Gemini Pro और Gemini Flash मॉडल फ़ैमिली, Android डेवलपर को मल्टीमॉडल एआई की सुविधाएँ देती हैं. ये क्लाउड में इन्फ़रेंस की सुविधा देती हैं. साथ ही, Android ऐप्लिकेशन में इमेज, ऑडियो, वीडियो, और टेक्स्ट इनपुट को प्रोसेस करती हैं.

  • Gemini Pro: Gemini 2.5 Pro, Google का सबसे बेहतरीन थिंकिंग मॉडल है. यह कोडिंग, गणित, और विज्ञान, टेक्नोलॉजी, इंजीनियरिंग, और गणित (एसटीईएम) से जुड़ी मुश्किल समस्याओं को हल कर सकता है. साथ ही, यह बड़ी कॉन्टेक्स्ट विंडो का इस्तेमाल करके, बड़े डेटासेट, कोडबेस, और दस्तावेज़ों का विश्लेषण कर सकता है.
  • Gemini Flash: Gemini Flash मॉडल, अगली पीढ़ी की सुविधाएँ और बेहतर क्षमताएँ देते हैं. इनमें तेज़ गति से काम करना, टूल का इस्तेमाल करने की सुविधा, और 10 लाख टोकन वाली कॉन्टेक्स्ट विंडो शामिल है.

Firebase AI Logic

Firebase के एआई लॉजिक की मदद से डेवलपर, Google के जनरेटिव एआई को अपने ऐप्लिकेशन में सुरक्षित तरीके से और सीधे तौर पर जोड़ सकते हैं. इससे ऐप्लिकेशन को डेवलप करना आसान हो जाता है. साथ ही, यह प्रोडक्शन के लिए तैयार ऐप्लिकेशन बनाने के लिए टूल और प्रॉडक्ट इंटिग्रेशन उपलब्ध कराता है. यह क्लाइंट को Android SDK टूल उपलब्ध कराता है. इनकी मदद से, क्लाइंट कोड से सीधे तौर पर Gemini API को इंटिग्रेट किया जा सकता है और उसे कॉल किया जा सकता है. इससे डेवलपमेंट आसान हो जाता है, क्योंकि बैकएंड की ज़रूरत नहीं पड़ती.

एपीआई उपलब्ध कराने वाली कंपनियां

Firebase AI Logic की मदद से, Google Gemini API की इन सुविधाओं का इस्तेमाल किया जा सकता है: Gemini Developer API और Vertex AI Gemini API.

इस इमेज में दिखाया गया है कि Android ऐप्लिकेशन, Firebase Android SDK का इस्तेमाल करके क्लाउड में Firebase से कैसे कनेक्ट होता है. इसके बाद, एआई लॉजिक को दो तरीकों से इंटिग्रेट किया जाता है: Gemini Developer API या Google Cloud Platform का Vertex AI. दोनों ही Gemini Pro और Flash मॉडल का इस्तेमाल करते हैं.
पहली इमेज. Firebase AI Logic इंटिग्रेशन आर्किटेक्चर.

एपीआई उपलब्ध कराने वाली हर कंपनी के लिए, मुख्य अंतर यहां दिए गए हैं:

Gemini Developer API:

  • बिना किसी शुल्क के, आज़माने की सुविधा के साथ इसका इस्तेमाल शुरू करें. इसके लिए, क्रेडिट/डेबिट कार्ड की जानकारी देने की ज़रूरत नहीं है.
  • उपयोगकर्ताओं की संख्या बढ़ने पर, Gemini Developer API के सशुल्क टियर पर अपग्रेड करें.
  • Google AI Studio का इस्तेमाल करके, प्रॉम्प्ट को बेहतर बनाएं और अलग-अलग प्रॉम्प्ट आज़माएं. साथ ही, कोड स्निपेट भी पाएं.

Vertex AI Gemini API:

  • मॉडल को ऐक्सेस करने की जगह को ज़्यादा बेहतर तरीके से कंट्रोल किया जा सकता है.
  • यह उन डेवलपर के लिए सबसे सही है जो पहले से ही Vertex AI/Google Cloud के नेटवर्क में शामिल हैं.
  • Vertex AI Studio का इस्तेमाल करके, प्रॉम्प्ट को बेहतर बनाएं और एक्सपेरिमेंट करें. साथ ही, कोड स्निपेट भी पाएं.

अपने ऐप्लिकेशन के लिए सही एपीआई सेवा देने वाली कंपनी चुनने के लिए, आपको अपने कारोबार और तकनीकी सीमाओं के साथ-साथ Vertex AI और Google Cloud के इकोसिस्टम के बारे में जानकारी होनी चाहिए. Android डेवलपर को Gemini Pro या Gemini Flash इंटिग्रेशन का इस्तेमाल शुरू करने के लिए, Gemini Developer API का इस्तेमाल करना चाहिए. मॉडल कंस्ट्रक्टर में पैरामीटर बदलकर, एक से दूसरे प्रोवाइडर पर स्विच किया जा सकता है:

Kotlin

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.5-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

Java

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.5-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Firebase AI Logic के क्लाइंट एसडीके के साथ काम करने वाले, उपलब्ध जनरेटिव एआई मॉडल की पूरी सूची देखें.

Firebase की सेवाएं

Gemini API का ऐक्सेस मिलने के साथ-साथ, Firebase AI Logic आपको कई सेवाएं भी उपलब्ध कराता है. इनकी मदद से, एआई की सुविधाओं को अपने ऐप्लिकेशन में आसानी से डिप्लॉय किया जा सकता है. साथ ही, प्रोडक्शन के लिए तैयार किया जा सकता है:

एप्लिकेशन चेक

Firebase App Check, ऐप्लिकेशन के बैकएंड को गलत इस्तेमाल से बचाता है. ऐसा इसलिए, क्योंकि यह सिर्फ़ उन क्लाइंट को संसाधनों को ऐक्सेस करने की अनुमति देता है जिनके पास ऐसा करने की अनुमति है. यह Google की सेवाओं (Firebase और Google Cloud शामिल हैं) और कस्टम बैकएंड के साथ इंटिग्रेट होता है. App Check, Play Integrity का इस्तेमाल करके यह पुष्टि करता है कि अनुरोध, असली ऐप्लिकेशन और ऐसे डिवाइस से किए गए हैं जिसमें कोई छेड़छाड़ नहीं की गई है.

Remote Config

हमारा सुझाव है कि आप अपने ऐप्लिकेशन में मॉडल का नाम हार्डकोड करने के बजाय, Firebase रिमोट कॉन्फ़िगरेशन का इस्तेमाल करके, सर्वर से कंट्रोल किए जाने वाले वैरिएबल का इस्तेमाल करें. इसकी मदद से, ऐप्लिकेशन में इस्तेमाल किए जा रहे मॉडल को डाइनैमिक तरीके से अपडेट किया जा सकता है. इसके लिए, आपको ऐप्लिकेशन का नया वर्शन डिप्लॉय करने या उपयोगकर्ताओं को नया वर्शन डाउनलोड करने के लिए कहने की ज़रूरत नहीं होती. मॉडल और प्रॉम्प्ट की A/B टेस्टिंग करने के लिए, रिमोट कॉन्फ़िगरेशन का भी इस्तेमाल किया जा सकता है.

एआई मॉनिटरिंग

एआई की सुविधा वाली आपकी सुविधाओं की परफ़ॉर्मेंस को समझने के लिए, Firebase कंसोल में एआई मॉनिटरिंग डैशबोर्ड का इस्तेमाल किया जा सकता है. आपको Gemini API कॉल के लिए, इस्तेमाल के पैटर्न, परफ़ॉर्मेंस मेट्रिक, और डीबग करने से जुड़ी अहम जानकारी मिलेगी.

Firebase AI Logic पर माइग्रेट करना

अगर आपके ऐप्लिकेशन में पहले से ही Vertex AI in Firebase SDK का इस्तेमाल किया जा रहा है, तो माइग्रेशन गाइड पढ़ें.