مدل های هوش مصنوعی جمینی

خانواده مدل‌های Gemini Pro و Gemini Flash به توسعه‌دهندگان اندروید قابلیت‌های هوش مصنوعی چندوجهی، اجرای استنتاج در فضای ابری و پردازش ورودی‌های تصویر، صدا، ویدئو و متن در برنامه‌های اندروید را ارائه می‌دهند.

  • Gemini Pro : Gemini 2.5 Pro پیشرفته ترین مدل تفکر گوگل است که قادر به استدلال در مورد مسائل پیچیده در کد، ریاضی، و STEM و همچنین تجزیه و تحلیل مجموعه داده های بزرگ، پایگاه های کد و اسناد با استفاده از زمینه طولانی است.
  • فلش جمینی : مدل‌های فلش جمینی ویژگی‌های نسل بعدی و قابلیت‌های بهبودیافته، از جمله سرعت عالی، استفاده از ابزار داخلی، و پنجره زمینه توکن 1M را ارائه می‌دهند.

Firebase AI Logic

Firebase AI Logic به توسعه دهندگان این امکان را می دهد تا به طور ایمن و مستقیم هوش مصنوعی مولد Google را به برنامه های خود اضافه کنند که توسعه را ساده می کند و ابزارها و ادغام محصولات را برای آمادگی تولید موفق ارائه می دهد. این نرم افزار SDK های اندرویدی مشتری را برای ادغام و فراخوانی مستقیم API های Gemini از کد مشتری فراهم می کند و با از بین بردن نیاز به Backend، توسعه را ساده می کند.

ارائه دهندگان API

Firebase AI Logic به شما امکان می دهد از ارائه دهندگان Google Gemini API زیر استفاده کنید: Gemini Developer API و Vertex AI Gemini API .

تصویری که یک برنامه Android را با استفاده از Firebase Android SDK نشان می‌دهد     برای اتصال به Firebase در فضای ابری. از آنجا، منطق هوش مصنوعی با استفاده از ادغام می شود     دو مسیر: Gemini Developer API یا Google Cloud Platform's Vertex AI,     هر دو از مدل‌های Gemini Pro و Flash استفاده می‌کنند.
شکل 1. معماری یکپارچه سازی منطق هوش مصنوعی Firebase.

در اینجا تفاوت های اصلی برای هر ارائه دهنده API وجود دارد:

Gemini Developer API :

  • بدون هزینه با یک ردیف رایگان سخاوتمندانه بدون نیاز به اطلاعات پرداخت شروع کنید.
  • به صورت اختیاری به سطح پولی Gemini Developer API ارتقا دهید تا با افزایش پایگاه کاربر خود، مقیاس آن را افزایش دهید.
  • با استفاده از استودیوی هوش مصنوعی گوگل، دستورات را تکرار و آزمایش کنید و حتی قطعه کد را دریافت کنید.

Vertex AI Gemini API :

  • کنترل گرانول بر جایی که به مدل دسترسی دارید .
  • ایده آل برای توسعه دهندگانی که قبلاً در اکوسیستم Vertex AI/Google Cloud تعبیه شده اند.
  • با استفاده از Vertex AI Studio، دستورات را تکرار و آزمایش کنید و حتی قطعه کد را دریافت کنید.

انتخاب ارائه‌دهنده API مناسب برای برنامه شما بر اساس محدودیت‌های تجاری و فنی شما و آشنایی با Vertex AI و اکوسیستم Google Cloud است. اکثر توسعه دهندگان اندروید که به تازگی با Gemini Pro یا Gemini Flash یکپارچه شده اند، باید با Gemini Developer API شروع کنند. جابجایی بین ارائه دهندگان با تغییر پارامتر در سازنده مدل انجام می شود:

کاتلین

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.0-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

جاوا

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.0-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

فهرست کامل مدل‌های هوش مصنوعی مولد موجود که توسط SDK مشتری AI Logic Firebase پشتیبانی می‌شوند را ببینید.

خدمات Firebase

علاوه بر دسترسی به Gemini API، Firebase AI Logic مجموعه‌ای از خدمات را برای ساده‌سازی استقرار ویژگی‌های دارای هوش مصنوعی در برنامه شما و آماده شدن برای تولید ارائه می‌کند:

بررسی برنامه

برنامه Firebase با اطمینان از اینکه فقط مشتریان مجاز به منابع دسترسی دارند، محافظت از برنامه را در برابر سوء استفاده بررسی کنید . با خدمات Google (از جمله Firebase و Google Cloud) و باطن های سفارشی ادغام می شود. App Check از Play Integrity استفاده می‌کند تا تأیید کند درخواست‌ها از برنامه معتبر و یک دستگاه دستکاری نشده منشا می‌گیرند.

پیکربندی از راه دور

به جای اینکه نام مدل را در برنامه خود کدگذاری کنید، توصیه می کنیم از یک متغیر کنترل شده توسط سرور با استفاده از Firebase Remote Config استفاده کنید. این به شما امکان می‌دهد به‌صورت پویا مدلی را که برنامه‌تان استفاده می‌کند، بدون نیاز به استقرار نسخه جدیدی از برنامه خود یا مجبور کردن کاربران خود برای انتخاب نسخه جدید، به‌روزرسانی کنید. همچنین می‌توانید از مدل‌ها و درخواست‌های تست A/B از Remote Config استفاده کنید.

نظارت بر هوش مصنوعی

برای درک عملکرد ویژگی‌های فعال‌شده با هوش مصنوعی، می‌توانید از داشبورد نظارت بر هوش مصنوعی در کنسول Firebase استفاده کنید. برای تماس‌های Gemini API خود، بینش‌های ارزشمندی در مورد الگوهای استفاده، معیارهای عملکرد، و اطلاعات اشکال‌زدایی دریافت خواهید کرد.

به Firebase AI Logic مهاجرت کنید

اگر قبلاً از Vertex AI در Firebase SDK در برنامه خود استفاده می‌کنید، راهنمای انتقال را بخوانید.