Rodziny modeli Gemini Pro i Gemini Flash oferują deweloperom aplikacji na Androida multimodalne funkcje AI, uruchamianie wnioskowania w chmurze oraz przetwarzanie danych wejściowych w postaci obrazów, dźwięków, filmów i tekstu w aplikacjach na Androida.
- Gemini Pro: Gemini 2.5 Pro to najnowocześniejszy model myślenia od Google, który potrafi rozwiązywać złożone problemy związane z kodem, matematyką i naukami ścisłymi, a także analizować duże zbiory danych, bazy kodu i dokumenty z użyciem długiego kontekstu.
- Gemini Flash: modele Gemini Flash oferują funkcje nowej generacji i ulepszone możliwości, w tym większą szybkość, wbudowane narzędzia i okno kontekstu z milionem tokenów.
Firebase AI Logic
Firebase AI Logic umożliwia deweloperom bezpieczne i bezpośrednie dodawanie do aplikacji generative AI od Google, co upraszcza proces tworzenia aplikacji. Oferuje też narzędzia i integracje z usługami, które ułatwiają przygotowanie aplikacji do wdrożenia. Pakiet SDK Androida umożliwia klientom bezpośrednią integrację z interfejsami Gemini i ich wywoływanie z kodu klienta, co upraszcza proces tworzenia, ponieważ eliminuje potrzebę korzystania z serwera zaplecza.
Dostawcy interfejsu API
Firebase AI Logic umożliwia korzystanie z tych dostawców interfejsu Gemini API w Google: interfejs API dla deweloperów Gemini i interfejs AI Gemini API w Gemini.
Oto główne różnice między dostawcami interfejsu API:
- Zacznij bezpłatnie korzystać z obszernego pakietu bezpłatnego bez podawania danych do płatności.
- Opcjonalnie możesz przejść na płatny poziom interfejsu Gemini Developer API, aby zwiększyć skalę wraz ze wzrostem liczby użytkowników.
- Możesz iterować i eksperymentować z promptami, a nawet uzyskiwać fragmenty kodu za pomocą Google AI Studio.
- szczegółowa kontrola nad miejscem dostępu do modelu.
- Jest to idealne rozwiązanie dla programistów, którzy korzystają już z ekosystemu Vertex AI/Google Cloud.
- Możesz iterować i eksperymentować z promptami, a nawet uzyskiwać fragmenty kodu za pomocą Vertex AI Studio.
Wybór odpowiedniego dostawcy interfejsu API dla aplikacji zależy od ograniczeń biznesowych i technicznych oraz znajomości Vertex AI i ekosystemu Google Cloud. Większość deweloperów Androida, którzy dopiero zaczynają korzystać z Gemini Pro lub integracji Gemini Flash, powinna zacząć od interfejsu Gemini Developer API. Przełączanie się między dostawcami odbywa się przez zmianę parametru w konstruktoramie modelu:
Kotlin
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.0-flash")
val response = model.generateContent("Write a story about a magic backpack");
val output = response.text
Java
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.0-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Zobacz pełną listę dostępnych modeli generatywnej AI obsługiwanych przez pakiety SDK klienta Firebase AI Logic.
Usługi Firebase
Oprócz dostępu do interfejsu Gemini API Firebase AI Logic oferuje zestaw usług, które upraszczają wdrażanie funkcji opartych na AI w aplikacji i przygotowują ją do wdrożenia w wersji produkcyjnej:
Sprawdzenie aplikacji
Sprawdzanie aplikacji Firebase chroni backendy aplikacji przed nadużyciami, zapewniając, że tylko autoryzowani klienci mają dostęp do zasobów. Jest ona zintegrowana z usługami Google (w tym Firebase i Google Cloud) oraz niestandardowymi backendami. Sprawdzanie aplikacji korzysta z Play Integrity, aby potwierdzić, że żądania pochodzą z autentycznej aplikacji i niezmodyfikowanego urządzenia.
Zdalna konfiguracja
Zamiast twardego kodowania nazwy modelu w aplikacji zalecamy użycie zmiennej kontrolowanej przez serwer za pomocą Zdalnej konfiguracji Firebase. Dzięki temu możesz dynamicznie aktualizować model używany przez aplikację bez konieczności wdrażania nowej wersji aplikacji lub wymagania od użytkowników korzystania z nowego modelu. Zdalnej konfiguracji możesz też używać do testowania A/B modeli i promptów.
Monitorowanie AI
Aby dowiedzieć się, jak działają funkcje korzystające z AI, możesz skorzystać z panelu monitorowania AI w konsoli Firebase. Dowiesz się więcej o wzorcach użytkowania, danych o wydajności i informacjach debugowania dotyczących wywołań interfejsu Gemini API.
Migracja do Firebase AI Logic
Jeśli w swojej aplikacji używasz już pakietu SDK Vertex AI w Firebase, przeczytaj przewodnik po migracji.