מודלים של AI ב-Gemini

משפחות המודלים Gemini Pro ו-Gemini Flash מציעות למפתחי Android יכולות AI מולטימודאליות, הפעלת הסקה בענן ועיבוד של קלט של תמונות, אודיו, סרטונים וטקסט באפליקציות Android.

  • Gemini Pro: Gemini 2.5 Pro הוא מודל החשיבה המתקדם ביותר של Google, שיכול לחשוב על פתרון בעיות מורכבות בקוד, במתמטיקה וב-STEM, וגם לנתח מערכי נתונים גדולים, מאגרי קוד ומסמכים באמצעות הקשר ארוך.
  • Gemini Flash: מודלים של Gemini Flash מספקים תכונות מתקדמות ויכולות משופרות, כולל מהירות גבוהה יותר, שימוש מובנה בכלים וחלון הקשר של מיליון טוקנים.

Firebase AI Logic

התכונה Firebase AI Logic מאפשרת למפתחים להוסיף באופן ישיר ומאובטח AI גנרטיבי של Google לאפליקציות שלהם, וכך לפשט את תהליך הפיתוח. בנוסף, היא מציעה כלים ושילובים של מוצרים כדי להכין את האפליקציות להשקה. הוא מספק ערכות SDK ל-Android ללקוחות, כדי לשלב ישירות את Gemini API ולהפעיל אותו מקוד הלקוח, וכך מפשט את תהליך הפיתוח כי לא צריך להשתמש בשרת קצה עורפי.

ספקי API

‫Firebase AI Logic מאפשר לכם להשתמש בספקי Google Gemini API הבאים: ‏Gemini Developer API ו-Vertex AI Gemini API.

איור שמציג אפליקציה ל-Android שמשתמשת ב-Firebase Android SDK כדי להתחבר ל-Firebase בענן. משם, לוגיקת ה-AI משתלבת באמצעות שתי דרכים: Gemini Developer API או Vertex AI של Google Cloud Platform, שניהם מבוססים על מודלים של Gemini Pro ו-Flash.
איור 1. ארכיטקטורת השילוב של Firebase AI Logic.

אלה ההבדלים העיקריים בין ספקי ה-API השונים:

Gemini Developer API:

  • אפשר להתחיל בחינם עם תוכנית נדיבה ללא עלות, בלי צורך בפרטי תשלום.
  • אפשר לשדרג למינוי בתשלום של Gemini Developer API כדי להרחיב את השימוש ככל שבסיס המשתמשים גדל.
  • אפשר לחזור על הפעולות ולהתנסות בהנחיות, ואפילו לקבל קטעי קוד באמצעות Google AI Studio.

Vertex AI Gemini API:

  • שליטה פרטנית במיקום שממנו ניגשים למודל.
  • הפתרון הזה מתאים במיוחד למפתחים שכבר משתמשים במערכת האקולוגית של Vertex AI או Google Cloud.
  • תוכלו לחזור על הפעולות ולנסות הנחיות שונות, ואפילו לקבל קטעי קוד באמצעות Vertex AI Studio.

בחירת ספק ה-API המתאים לאפליקציה שלכם מבוססת על האילוצים העסקיים והטכניים שלכם, ועל רמת ההיכרות שלכם עם Vertex AI ועם המערכת האקולוגית של Google Cloud. רוב מפתחי Android שרק מתחילים לשלב את Gemini Pro או Gemini Flash צריכים להתחיל עם Gemini Developer API. כדי לעבור בין ספקים, משנים את הפרמטר בבונה המודל:

Kotlin

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.5-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

Java

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.5-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

הרשימה המלאה של מודלים זמינים של AI גנרטיבי שנתמכים על ידי ערכות SDK של לקוח ללוגיקת AI ב-Firebase.

שירותי Firebase

בנוסף לגישה ל-Gemini API, ‏ Firebase AI Logic מציע חבילה של שירותים שמפשטים את הפריסה של תכונות מבוססות-AI באפליקציה ומכינים אותה לייצור:

בדיקת אפליקציה

התכונה 'בדיקת אפליקציות' ב-Firebase מגנה על הקצה העורפי של האפליקציה מפני ניצול לרעה. היא מוודאת שרק לקוחות מורשים יוכלו לגשת למשאבים. הוא משתלב עם שירותי Google (כולל Firebase ו-Google Cloud) ועם קצה עורפי מותאם אישית. ‫App Check משתמש ב-Play Integrity כדי לוודא שהבקשות מגיעות מהאפליקציה המקורית וממכשיר שלא בוצעו בו שינויים.

הגדרת תצורה מרחוק

במקום להגדיר את שם המודל בהגדרות הקשיחות של האפליקציה, מומלץ להשתמש במשתנה מבוקר-שרת באמצעות הגדרת תצורה מרחוק ב-Firebase. כך תוכלו לעדכן באופן דינמי את המודל שבו האפליקציה משתמשת בלי שתצטרכו לפרוס גרסה חדשה של האפליקציה או לדרוש מהמשתמשים להוריד גרסה חדשה. אפשר גם להשתמש בהגדרת תצורה מרחוק כדי לבצע בדיקות A/B של מודלים והנחיות.

מעקב אחרי שימוש בתכונות AI

כדי להבין את הביצועים של התכונות שמבוססות על AI, אפשר להשתמש בלוח הבקרה למעקב אחרי AI במסוף Firebase. תקבלו תובנות חשובות לגבי דפוסי השימוש, מדדי הביצועים ומידע על ניפוי באגים בקריאות ל-Gemini API.

מעבר אל Firebase AI Logic

אם אתם כבר משתמשים ב-Vertex AI in Firebase SDK באפליקציה שלכם, כדאי לקרוא את מדריך ההעברה.