अगर आपने Gemini API का इस्तेमाल पहले कभी नहीं किया है, तो Android डेवलपर के लिए Gemini Developer API को API उपलब्ध कराने वाली कंपनी के तौर पर इस्तेमाल करने का सुझाव दिया जाता है. हालांकि, अगर आपको डेटा स्टोर करने की जगह से जुड़ी खास शर्तें पूरी करनी हैं या आपने पहले से ही Vertex AI या Google Cloud एनवायरमेंट का इस्तेमाल शुरू कर दिया है, तो Vertex AI Gemini API का इस्तेमाल किया जा सकता है.
Vertex AI in Firebase से माइग्रेट करना
अगर आपने Firebase में Vertex AI का इस्तेमाल करके, Gemini Flash और Pro मॉडल को इंटिग्रेट किया था, तो आपके पास Vertex AI को एपीआई उपलब्ध कराने वाली कंपनी के तौर पर इस्तेमाल करने का विकल्प है. ज़्यादा जानकारी के लिए, Firebase का दस्तावेज़ पढ़ें. इसमें माइग्रेशन से जुड़ी गाइड दी गई है.
शुरू करना
अपने ऐप्लिकेशन से सीधे तौर पर Vertex AI Gemini API का इस्तेमाल करने से पहले, Vertex AI Studio में प्रॉम्प्ट आज़माए जा सकते हैं.
Firebase प्रोजेक्ट सेट अप करना और अपने ऐप्लिकेशन को Firebase से कनेक्ट करना
जब आप अपने ऐप्लिकेशन से Vertex AI Gemini API को कॉल करने के लिए तैयार हों, तब Firebase AI लॉजिक की शुरुआती गाइड में दिए गए "पहला चरण" में दिए गए निर्देशों का पालन करें. इससे आपको अपने ऐप्लिकेशन में Firebase और SDK टूल सेट अप करने में मदद मिलेगी.
Gradle डिपेंडेंसी जोड़ना
अपने ऐप्लिकेशन मॉड्यूल में यह Gradle डिपेंडेंसी जोड़ें:
dependencies {
// ... other androidx dependencies
// Import the BoM for the Firebase platform
implementation(platform("com.google.firebase:firebase-bom:34.8.0"))
// Add the dependency for the Firebase AI Logic library. When using the BoM,
// you don't specify versions in Firebase library dependencies
implementation("com.google.firebase:firebase-ai")
}
जनरेटिव मॉडल को शुरू करना
GenerativeModel को इंस्टैंशिएट करके और मॉडल का नाम तय करके शुरू करें:
Kotlin
val model = Firebase.ai(backend = GenerativeBackend.vertexAI()) .generativeModel("gemini-2.5-flash")
Java
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.vertexAI()) .generativeModel("gemini-2.5-flash"); GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Firebase के दस्तावेज़ में, Gemini Developer API के साथ इस्तेमाल किए जा सकने वाले मॉडल के बारे में ज़्यादा जानें. मॉडल पैरामीटर कॉन्फ़िगर करने के बारे में भी जानें.
टेक्स्ट जनरेट करना
टेक्स्ट के तौर पर जवाब जनरेट करने के लिए, अपने प्रॉम्प्ट के साथ generateContent() को कॉल करें.
Kotlin
suspend fun generateText(model: GenerativeModel) { // Note: generateContent() is a suspend function, which integrates well // with existing Kotlin code. val response = model.generateContent("Write a story about a magic backpack.") // ... }
Java
Content prompt = new Content.Builder() .addText("Write a story about a magic backpack.") .build(); ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt); Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() { @Override public void onSuccess(GenerateContentResponse result) { String resultText = result.getText(); // ... } @Override public void onFailure(Throwable t) { t.printStackTrace(); } }, executor);
Gemini Developer API की तरह ही, टेक्स्ट प्रॉम्प्ट के साथ-साथ इमेज, ऑडियो, वीडियो, और फ़ाइलें भी पास की जा सकती हैं. ज़्यादा जानकारी के लिए, अपने ऐप्लिकेशन से Gemini Developer API के साथ इंटरैक्ट करना लेख पढ़ें.
Firebase AI Logic SDK के बारे में ज़्यादा जानने के लिए, Firebase से जुड़े दस्तावेज़ पढ़ें.