مدل های هوش مصنوعی جمینی

خانواده‌های مدل Gemini Pro و Gemini Flash به توسعه‌دهندگان اندروید قابلیت‌های هوش مصنوعی چندوجهی ارائه می‌دهند، استنتاج را در فضای ابری اجرا می‌کنند و ورودی‌های تصویر، صدا، ویدئو و متن را در برنامه‌های اندروید پردازش می‌کنند.

  • جمینی پرو : جمینی ۲.۵ پرو مدل تفکر پیشرفته گوگل است که قادر به استدلال در مورد مسائل پیچیده در کد، ریاضی و STEM و همچنین تجزیه و تحلیل مجموعه داده‌های بزرگ، پایگاه‌های کد و اسناد با استفاده از متن طولانی است.
  • Gemini Flash : مدل‌های Gemini Flash ویژگی‌های نسل بعدی و قابلیت‌های بهبود یافته‌ای از جمله سرعت برتر، استفاده از ابزار داخلی و یک پنجره متن توکن ۱ میلیونی را ارائه می‌دهند.

منطق هوش مصنوعی فایربیس

منطق هوش مصنوعی فایربیس به توسعه‌دهندگان این امکان را می‌دهد که هوش مصنوعی مولد گوگل را به طور ایمن و مستقیم به برنامه‌های خود اضافه کنند و توسعه را ساده‌تر کنند، و ابزارها و ادغام‌های محصول را برای آمادگی موفقیت‌آمیز در تولید ارائه می‌دهد. این منطق، SDKهای اندروید کلاینت را برای ادغام و فراخوانی مستقیم API Gemini از کد کلاینت فراهم می‌کند و با حذف نیاز به backend، توسعه را ساده می‌کند.

ارائه دهندگان API

Firebase AI Logic به شما امکان می‌دهد از ارائه‌دهندگان API گوگل جمینی زیر استفاده کنید: Gemini Developer API و Vertex AI Gemini API .

تصویری که یک برنامه اندروید را با استفاده از Firebase Android SDK برای اتصال به Firebase در فضای ابری نشان می‌دهد. از آنجا، منطق هوش مصنوعی با استفاده از دو مسیر ادغام می‌شود: رابط برنامه‌نویسی نرم‌افزار توسعه‌دهنده Gemini یا هوش مصنوعی Vertex پلتفرم ابری گوگل، که هر دو از مدل‌های Gemini Pro و Flash استفاده می‌کنند.
شکل 1. معماری یکپارچه‌سازی منطق هوش مصنوعی فایربیس.

در اینجا تفاوت‌های اصلی برای هر ارائه‌دهنده API آورده شده است:

رابط برنامه‌نویسی کاربردی توسعه‌دهندگان جمینی :

  • بدون هیچ هزینه‌ای و با یک لایه رایگان سخاوتمندانه و بدون نیاز به اطلاعات پرداخت، شروع کنید.
  • به صورت اختیاری، برای افزایش مقیاس‌پذیری با رشد پایگاه کاربران خود، به سطح پولی رابط برنامه‌نویسی نرم‌افزار Gemini Developer ارتقا دهید.
  • با استفاده از Google AI Studio، دستورالعمل‌ها را تکرار و آزمایش کنید و حتی قطعه کدهایی را دریافت کنید.

API مربوط به Vertex AI Gemini :

  • کنترل دقیق بر محل دسترسی شما به مدل .
  • ایده‌آل برای توسعه‌دهندگانی که از قبل در اکوسیستم Vertex AI/Google Cloud مستقر هستند.
  • با استفاده از Vertex AI Studio، دستورات را تکرار و آزمایش کنید و حتی قطعه کد دریافت کنید.

انتخاب ارائه‌دهنده API مناسب برای برنامه شما بر اساس محدودیت‌های تجاری و فنی شما و آشنایی با Vertex AI و اکوسیستم Google Cloud است. اکثر توسعه‌دهندگان اندروید که تازه با ادغام‌های Gemini Pro یا Gemini Flash شروع به کار می‌کنند، باید با Gemini Developer API شروع کنند. جابجایی بین ارائه‌دهندگان با تغییر پارامتر در سازنده مدل انجام می‌شود:

کاتلین

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.5-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

جاوا

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.5-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

لیست کامل مدل‌های هوش مصنوعی مولد موجود که توسط SDKهای کلاینت Firebase AI Logic پشتیبانی می‌شوند را مشاهده کنید.

سرویس‌های فایربیس

علاوه بر دسترسی به رابط برنامه‌نویسی نرم‌افزار Gemini، Firebase AI Logic مجموعه‌ای از خدمات را برای ساده‌سازی پیاده‌سازی ویژگی‌های مبتنی بر هوش مصنوعی در برنامه شما و آماده‌سازی آن برای تولید ارائه می‌دهد:

بررسی برنامه

بررسی برنامه Firebase با اطمینان از دسترسی فقط کلاینت‌های مجاز به منابع، از backendهای برنامه در برابر سوءاستفاده محافظت می‌کند. این سرویس با سرویس‌های گوگل (از جمله Firebase و Google Cloud) و backendهای سفارشی ادغام می‌شود. بررسی برنامه از Play Integrity برای تأیید اینکه درخواست‌ها از برنامه معتبر و یک دستگاه دستکاری نشده سرچشمه می‌گیرند، استفاده می‌کند.

پیکربندی از راه دور

به جای کدنویسی ثابت نام مدل در برنامه‌تان، توصیه می‌کنیم از یک متغیر کنترل‌شده توسط سرور با استفاده از Firebase Remote Config استفاده کنید. این به شما امکان می‌دهد مدلی را که برنامه‌تان استفاده می‌کند، بدون نیاز به استقرار نسخه جدیدی از برنامه یا الزام کاربران به انتخاب نسخه جدید، به صورت پویا به‌روزرسانی کنید. همچنین می‌توانید از Remote Config برای مدل‌ها و اعلان‌های تست A/B استفاده کنید.

نظارت بر هوش مصنوعی

برای درک عملکرد ویژگی‌های مبتنی بر هوش مصنوعی خود، می‌توانید از داشبورد نظارت بر هوش مصنوعی در کنسول Firebase استفاده کنید. شما بینش‌های ارزشمندی در مورد الگوهای استفاده، معیارهای عملکرد و اطلاعات اشکال‌زدایی برای فراخوانی‌های API Gemini خود دریافت خواهید کرد.

مهاجرت به منطق هوش مصنوعی فایربیس

اگر در حال حاضر از هوش مصنوعی Vertex در Firebase SDK در برنامه خود استفاده می‌کنید، راهنمای مهاجرت را بخوانید.