با مجموعهها، منظم بمانید
ذخیره و طبقهبندی محتوا براساس اولویتهای شما.
خانواده مدلهای Gemini Pro و Gemini Flash به توسعهدهندگان اندروید قابلیتهای هوش مصنوعی چندوجهی، اجرای استنتاج در فضای ابری و پردازش ورودیهای تصویر، صدا، ویدئو و متن در برنامههای اندروید را ارائه میدهند.
Gemini Pro : Gemini 2.5 Pro پیشرفته ترین مدل تفکر گوگل است که قادر به استدلال در مورد مسائل پیچیده در کد، ریاضی، و STEM و همچنین تجزیه و تحلیل مجموعه داده های بزرگ، پایگاه های کد و اسناد با استفاده از زمینه طولانی است.
فلش جمینی : مدلهای فلش جمینی ویژگیهای نسل بعدی و قابلیتهای بهبودیافته، از جمله سرعت عالی، استفاده از ابزار داخلی، و پنجره زمینه توکن 1M را ارائه میدهند.
Firebase AI Logic
Firebase AI Logic به توسعه دهندگان این امکان را می دهد تا به طور ایمن و مستقیم هوش مصنوعی مولد Google را به برنامه های خود اضافه کنند که توسعه را ساده می کند و ابزارها و ادغام محصولات را برای آمادگی تولید موفق ارائه می دهد. این نرم افزار SDK های اندرویدی مشتری را برای ادغام و فراخوانی مستقیم API های Gemini از کد مشتری فراهم می کند و با از بین بردن نیاز به Backend، توسعه را ساده می کند.
ارائه دهندگان API
Firebase AI Logic به شما امکان می دهد از ارائه دهندگان Google Gemini API زیر استفاده کنید: Gemini Developer API و Vertex AI Gemini API .
شکل 1. معماری یکپارچه سازی منطق هوش مصنوعی Firebase.
در اینجا تفاوت های اصلی برای هر ارائه دهنده API وجود دارد:
ایده آل برای توسعه دهندگانی که قبلاً در اکوسیستم Vertex AI/Google Cloud تعبیه شده اند.
با استفاده از Vertex AI Studio، دستورات را تکرار و آزمایش کنید و حتی قطعه کد را دریافت کنید.
انتخاب ارائهدهنده API مناسب برای برنامه شما بر اساس محدودیتهای تجاری و فنی شما و آشنایی با Vertex AI و اکوسیستم Google Cloud است. اکثر توسعه دهندگان اندروید که به تازگی با Gemini Pro یا Gemini Flash یکپارچه شده اند، باید با Gemini Developer API شروع کنند. جابجایی بین ارائه دهندگان با تغییر پارامتر در سازنده مدل انجام می شود:
کاتلین
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`valmodel=Firebase.ai(backend=GenerativeBackend.googleAI()).generativeModel("gemini-2.5-flash")valresponse=model.generateContent("Write a story about a magic backpack");valoutput=response.text
جاوا
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`GenerativeModelfirebaseAI=FirebaseAI.getInstance(GenerativeBackend.googleAI()).generativeModel("gemini-2.5-flash");// Use the GenerativeModelFutures Java compatibility layer which offers// support for ListenableFuture and Publisher APIsGenerativeModelFuturesmodel=GenerativeModelFutures.from(firebaseAI);Contentprompt=newContent.Builder().addText("Write a story about a magic backpack.").build();ListenableFuture<GenerateContentResponse>response=model.generateContent(prompt);Futures.addCallback(response,newFutureCallback<GenerateContentResponse>(){@OverridepublicvoidonSuccess(GenerateContentResponseresult){StringresultText=result.getText();[...]}@OverridepublicvoidonFailure(Throwablet){t.printStackTrace();}},executor);
علاوه بر دسترسی به Gemini API، Firebase AI Logic مجموعهای از خدمات را برای سادهسازی استقرار ویژگیهای دارای هوش مصنوعی در برنامه شما و آماده شدن برای تولید ارائه میکند:
به جای اینکه نام مدل را در برنامه خود کدگذاری کنید، توصیه می کنیم از یک متغیر کنترل شده توسط سرور با استفاده از Firebase Remote Config استفاده کنید. این به شما امکان میدهد بهصورت پویا مدلی را که برنامهتان استفاده میکند، بدون نیاز به استقرار نسخه جدیدی از برنامه خود یا مجبور کردن کاربران خود برای انتخاب نسخه جدید، بهروزرسانی کنید. همچنین میتوانید از مدلها و درخواستهای تست A/B از Remote Config استفاده کنید.
نظارت بر هوش مصنوعی
برای درک عملکرد ویژگیهای فعالشده با هوش مصنوعی، میتوانید از داشبورد نظارت بر هوش مصنوعی در کنسول Firebase استفاده کنید. برای تماسهای Gemini API خود، بینشهای ارزشمندی در مورد الگوهای استفاده، معیارهای عملکرد، و اطلاعات اشکالزدایی دریافت خواهید کرد.
به Firebase AI Logic مهاجرت کنید
اگر قبلاً از Vertex AI در Firebase SDK در برنامه خود استفاده میکنید، راهنمای انتقال را بخوانید.
محتوا و نمونه کدها در این صفحه مشمول پروانههای توصیفشده در پروانه محتوا هستند. جاوا و OpenJDK علامتهای تجاری یا علامتهای تجاری ثبتشده Oracle و/یا وابستههای آن هستند.
تاریخ آخرین بهروزرسانی 2025-08-14 بهوقت ساعت هماهنگ جهانی.
[[["درک آسان","easyToUnderstand","thumb-up"],["مشکلم را برطرف کرد","solvedMyProblem","thumb-up"],["غیره","otherUp","thumb-up"]],[["اطلاعاتی که نیاز دارم وجود ندارد","missingTheInformationINeed","thumb-down"],["بیشازحد پیچیده/ مراحل بسیار زیاد","tooComplicatedTooManySteps","thumb-down"],["قدیمی","outOfDate","thumb-down"],["مشکل ترجمه","translationIssue","thumb-down"],["مشکل کد / نمونهها","samplesCodeIssue","thumb-down"],["غیره","otherDown","thumb-down"]],["تاریخ آخرین بهروزرسانی 2025-08-14 بهوقت ساعت هماهنگ جهانی."],[],[],null,["# Gemini AI models\n\nThe Gemini Pro and Gemini Flash model families offer Android developers\nmultimodal AI capabilities, running inference in the cloud and processing image,\naudio, video, and text inputs in Android apps.\n\n- **Gemini Pro**: Gemini 2.5 Pro is Google's state-of-the-art thinking model, capable of reasoning over complex problems in code, math, and STEM, as well as analyzing large datasets, codebases, and documents using long context.\n- **Gemini Flash**: The Gemini Flash models deliver next-gen features and improved capabilities, including superior speed, built-in tool use, and a 1M token context window.\n\n| **Note:** This document covers the cloud-based Gemini AI models. For on-device inference, [check out the Gemini Nano documentation](/ai/gemini-nano).\n\nFirebase AI Logic\n-----------------\n\nFirebase AI Logic enables developers to securely and directly add Google's\ngenerative AI into their apps simplifying development, and offers tools and\nproduct integrations for successful production readiness. It provides client\nAndroid SDKs to directly integrate and call Gemini APIs from client code,\nsimplifying development by eliminating the need for a backend.\n\nAPI providers\n-------------\n\nFirebase AI Logic lets you use the following Google Gemini API providers:\nGemini *Developer API* and Vertex *AI Gemini API*.\n**Figure 1.** Firebase AI Logic integration architecture.\n\nHere are the primary differences for each API provider:\n\n[**Gemini Developer API**](/ai/gemini/developer-api):\n\n- Get started at no-cost with a generous free tier without payment information required.\n- Optionally upgrade to the paid tier of the Gemini Developer API to scale as your user base grows.\n- Iterate and experiment with prompts and even get code snippets using [Google AI Studio](https://aistudio.google.com/).\n\n[**Vertex AI Gemini API**](/ai/vertex-ai-firebase):\n\n- Granular control over [where you access the model](https://cloud.google.com/compute/docs/regions-zones).\n- Ideal for developers already embedded in the Vertex AI/Google Cloud ecosystem.\n- Iterate and experiment with prompts and even get code snippets using [Vertex AI Studio](https://cloud.google.com/vertex-ai/generative-ai/docs/start/quickstarts/quickstart).\n\nSelecting the appropriate API provider for your application is based on your\nbusiness and technical constraints, and familiarity with the Vertex AI and\nGoogle Cloud ecosystem. Most Android developers just getting started with Gemini\nPro or Gemini Flash integrations should begin with the Gemini Developer API.\nSwitching between providers is done by changing the parameter in the model\nconstructor: \n\n### Kotlin\n\n // For Vertex AI, use `backend = GenerativeBackend.vertexAI()`\n val model = Firebase.ai(backend = GenerativeBackend.googleAI())\n .generativeModel(\"gemini-2.5-flash\")\n\n val response = model.generateContent(\"Write a story about a magic backpack\");\n val output = response.text\n\n### Java\n\n // For Vertex AI, use `backend = GenerativeBackend.vertexAI()`\n GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())\n .generativeModel(\"gemini-2.5-flash\");\n\n // Use the GenerativeModelFutures Java compatibility layer which offers\n // support for ListenableFuture and Publisher APIs\n GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);\n\n Content prompt = new Content.Builder()\n .addText(\"Write a story about a magic backpack.\")\n .build();\n\n ListenableFuture\u003cGenerateContentResponse\u003e response = model.generateContent(prompt);\n Futures.addCallback(response, new FutureCallback\u003cGenerateContentResponse\u003e() {\n @Override\n public void onSuccess(GenerateContentResponse result) {\n String resultText = result.getText();\n [...]\n }\n\n @Override\n public void onFailure(Throwable t) {\n t.printStackTrace();\n }\n }, executor);\n\nSee the full [list of available generative AI models](https://firebase.google.com/docs/vertex-ai/models) supported\nby Firebase AI Logic client SDKs.\n\nFirebase services\n-----------------\n\nIn addition to access to the Gemini API, Firebase AI Logic offers a set of\nservices to simplify the deployment of AI-enabled features to your app and get\nready for production:\n\n### App Check\n\n[Firebase App Check](https://firebase.google.com/docs/app-check) safeguards app backends from abuse by\nensuring only authorized clients access resources. It integrates with Google\nservices (including Firebase and Google Cloud) and custom backends. App Check\nuses [Play Integrity](/google/play/integrity) to verify that requests originate from the authentic\napp and an untampered device.\n\n### Remote Config\n\nInstead of hardcoding the model name in your app, we recommend using a\nserver-controlled variable using [Firebase Remote Config](https://firebase.google.com/docs/remote-config). This\nlets you dynamically update the model your app uses without having to deploy a\nnew version of your app or require your users to pick up a new version. You can\nalso use Remote Config to [A/B test](https://firebase.google.com/docs/ab-testing/abtest-config) models and prompts.\n\n### AI monitoring\n\nTo understand how your AI-enabled features are performing you can use the [AI\nmonitoring dashboard](https://firebase.google.com/docs/vertex-ai/monitoring) within the Firebase console. You'll get\nvaluable insights into usage patterns, performance metrics, and debugging\ninformation for your Gemini API calls.\n\nMigrate to Firebase AI Logic\n----------------------------\n\nIf you're already using the Vertex AI in Firebase SDK in your app, read the\n[migration guide](https://firebase.google.com/docs/vertex-ai/migrate-to-latest-sdk)."]]