Vertex AI Gemini API

अगर आपने Gemini API का इस्तेमाल पहले कभी नहीं किया है, तो Android डेवलपर के लिए, Gemini Developer API को सुझाए गए एपीआई देने वाले प्लैटफ़ॉर्म के तौर पर इस्तेमाल करने का सुझाव दिया जाता है. हालांकि, अगर आपकी डेटा की जगह से जुड़ी कोई खास ज़रूरत है या आपने पहले से ही Vertex AI या Google Cloud एनवायरमेंट में काम किया है, तो Vertex AI Gemini API का इस्तेमाल किया जा सकता है.

Firebase में Vertex AI से माइग्रेट करना

अगर आपने Firebase में Vertex AI का इस्तेमाल करके, Gemini Flash और Pro मॉडल को इंटिग्रेट किया है, तो Vertex AI पर माइग्रेट किया जा सकता है और इसे एपीआई देने वाले प्लैटफ़ॉर्म के तौर पर इस्तेमाल किया जा सकता है. माइग्रेशन के बारे में ज़्यादा जानकारी के लिए, Firebase से जुड़ा दस्तावेज़ पढ़ें.

शुरू करना

अपने ऐप्लिकेशन से सीधे Vertex AI Gemini API के साथ इंटरैक्ट करने से पहले, आप Vertex AI Studio में प्रॉम्प्ट के साथ एक्सपेरिमेंट कर सकते हैं.

Firebase प्रोजेक्ट सेट अप करना और अपने ऐप्लिकेशन को Firebase से कनेक्ट करना

अपने ऐप्लिकेशन से Vertex AI Gemini API को कॉल करने के लिए, Firebase और अपने ऐप्लिकेशन में SDK टूल सेट अप करने के लिए, "पहला चरण" Firebase AI Logic के लिए, शुरू करने से जुड़ी गाइड में दिए गए निर्देशों का पालन करें.

Gradle डिपेंडेंसी जोड़ना

अपने ऐप्लिकेशन मॉड्यूल में, यह Gradle डिपेंडेंसी जोड़ें:

dependencies {
  // ... other androidx dependencies

  // Import the BoM for the Firebase platform
  implementation(platform("com.google.firebase:firebase-bom:34.12.0"))

  // Add the dependency for the Firebase AI Logic library. When using the BoM,
  // you don't specify versions in Firebase library dependencies
  implementation("com.google.firebase:firebase-ai")
}

जनरेटिव मॉडल को शुरू करना

GenerativeModel को इंस्टैंशिएट करके और मॉडल का नाम तय करके शुरू करें:

Kotlin

val model = Firebase.ai(backend = GenerativeBackend.vertexAI())
    .generativeModel("gemini-2.5-flash")

Java

GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI())
        .generativeModel("gemini-2.5-flash");

GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Firebase के दस्तावेज़ में, Gemini Developer API के साथ इस्तेमाल किए जा सकने वाले उपलब्ध मॉडल के बारे में ज़्यादा जानें. मॉडल के पैरामीटर कॉन्फ़िगर करने के बारे में भी जाना जा सकता है .

टेक्स्ट जनरेट करो

टेक्स्ट का जवाब जनरेट करने के लिए, अपने प्रॉम्प्ट के साथ generateContent() को कॉल करें.

Kotlin

suspend fun generateText(model: GenerativeModel) {
    // Note: generateContent() is a suspend function, which integrates well
    // with existing Kotlin code.
    val response = model.generateContent("Write a story about a magic backpack.")
    // ...
}

Java

Content prompt = new Content.Builder()
        .addText("Write a story about a magic backpack.")
        .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        // ...
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Gemini Developer API की तरह, टेक्स्ट प्रॉम्प्ट के साथ इमेज, ऑडियो, वीडियो, और फ़ाइलें भी पास की जा सकती हैं. ज़्यादा जानकारी के लिए, अपने ऐप्लिकेशन से Gemini Developer API के साथ इंटरैक्ट करना लेख पढ़ें.

Firebase AI Logic SDK टूल के बारे में ज़्यादा जानने के लिए, Firebase से जुड़ा दस्तावेज़ पढ़ें.