Gemini Pro 및 Gemini Flash 모델 제품군은 Android 개발자에게 멀티모달 AI 기능을 제공하여 클라우드에서 추론을 실행하고 Android 앱에서 이미지, 오디오, 동영상, 텍스트 입력을 처리합니다.
Gemini Pro: Gemini 2.5 Pro는 코드, 수학, STEM의 복잡한 문제를 추론하고 긴 컨텍스트를 사용하여 대규모 데이터 세트, 코드베이스, 문서를 분석할 수 있는 Google의 최신 사고 모델입니다.
Gemini Flash: Gemini Flash 모델은 빠른 속도, 기본 제공 도구 사용, 토큰 컨텍스트 윈도우 100만 개 등 차세대 기능과 향상된 기능을 제공합니다.
Firebase AI 로직
Firebase AI 로직을 사용하면 개발자가 Google의 생성형 AI를 앱에 안전하고 직접적으로 추가하여 개발을 간소화할 수 있으며, 성공적인 프로덕션 준비를 위한 도구 및 제품 통합을 제공합니다. 클라이언트 Android SDK를 제공하여 클라이언트 코드에서 Gemini API를 직접 통합하고 호출할 수 있으므로 백엔드가 필요하지 않아 개발이 간소화됩니다.
API 제공업체
Firebase AI 로직을 사용하면 Gemini Developer API 및 Vertex AI Gemini API와 같은 Google Gemini API 제공업체를 사용할 수 있습니다.
애플리케이션에 적절한 API 제공업체를 선택하는 것은 비즈니스 및 기술적 제약조건과 Vertex AI 및 Google Cloud 생태계에 대한 숙련도에 따라 달라집니다. Gemini Pro 또는 Gemini Flash 통합을 처음 시작하는 대부분의 Android 개발자는 Gemini Developer API로 시작해야 합니다.
제공업체 간에 전환하려면 모델 생성자의 매개변수를 변경하면 됩니다.
Kotlin
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`valmodel=Firebase.ai(backend=GenerativeBackend.googleAI()).generativeModel("gemini-2.5-flash")valresponse=model.generateContent("Write a story about a magic backpack");valoutput=response.text
자바
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`GenerativeModelfirebaseAI=FirebaseAI.getInstance(GenerativeBackend.googleAI()).generativeModel("gemini-2.5-flash");// Use the GenerativeModelFutures Java compatibility layer which offers// support for ListenableFuture and Publisher APIsGenerativeModelFuturesmodel=GenerativeModelFutures.from(firebaseAI);Contentprompt=newContent.Builder().addText("Write a story about a magic backpack.").build();ListenableFuture<GenerateContentResponse>response=model.generateContent(prompt);Futures.addCallback(response,newFutureCallback<GenerateContentResponse>(){@OverridepublicvoidonSuccess(GenerateContentResponseresult){StringresultText=result.getText();[...]}@OverridepublicvoidonFailure(Throwablet){t.printStackTrace();}},executor);
Firebase AI 로직은 Gemini API에 대한 액세스 외에도 앱에 AI 지원 기능을 간편하게 배포하고 프로덕션 준비를 할 수 있는 일련의 서비스를 제공합니다.
앱 확인
Firebase 앱 체크는 승인된 클라이언트만 리소스에 액세스하도록 하여 앱 백엔드를 악용으로부터 보호합니다. Google 서비스 (Firebase 및 Google Cloud 포함) 및 맞춤 백엔드와 통합됩니다. 앱 체크는 Play Integrity를 사용하여 요청이 인증된 앱과 변조되지 않은 기기에서 발생했는지 확인합니다.
Remote Config
앱에 모델 이름을 하드코딩하는 대신 Firebase 원격 구성을 사용하여 서버 제어 변수를 사용하는 것이 좋습니다. 이렇게 하면 새 버전의 앱을 배포하거나 사용자가 새 버전을 선택하도록 요구하지 않고도 앱에서 사용하는 모델을 동적으로 업데이트할 수 있습니다. 원격 구성을 사용하여 모델과 프롬프트를 A/B 테스트할 수도 있습니다.
AI 모니터링
AI 지원 기능의 실적을 파악하려면 Firebase Console 내의 AI 모니터링 대시보드를 사용하세요. Gemini API 호출의 사용 패턴, 성능 측정항목, 디버깅 정보에 관한 유용한 정보를 얻을 수 있습니다.
Firebase AI 로직으로 이전
앱에서 이미 Firebase SDK의 Vertex AI를 사용하고 있다면 이전 가이드를 참고하세요.
이 페이지에 나와 있는 콘텐츠와 코드 샘플에는 콘텐츠 라이선스에서 설명하는 라이선스가 적용됩니다. 자바 및 OpenJDK는 Oracle 및 Oracle 계열사의 상표 또는 등록 상표입니다.
최종 업데이트: 2025-08-17(UTC)
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["필요한 정보가 없음","missingTheInformationINeed","thumb-down"],["너무 복잡함/단계 수가 너무 많음","tooComplicatedTooManySteps","thumb-down"],["오래됨","outOfDate","thumb-down"],["번역 문제","translationIssue","thumb-down"],["샘플/코드 문제","samplesCodeIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-08-17(UTC)"],[],[],null,["# Gemini AI models\n\nThe Gemini Pro and Gemini Flash model families offer Android developers\nmultimodal AI capabilities, running inference in the cloud and processing image,\naudio, video, and text inputs in Android apps.\n\n- **Gemini Pro**: Gemini 2.5 Pro is Google's state-of-the-art thinking model, capable of reasoning over complex problems in code, math, and STEM, as well as analyzing large datasets, codebases, and documents using long context.\n- **Gemini Flash**: The Gemini Flash models deliver next-gen features and improved capabilities, including superior speed, built-in tool use, and a 1M token context window.\n\n| **Note:** This document covers the cloud-based Gemini AI models. For on-device inference, [check out the Gemini Nano documentation](/ai/gemini-nano).\n\nFirebase AI Logic\n-----------------\n\nFirebase AI Logic enables developers to securely and directly add Google's\ngenerative AI into their apps simplifying development, and offers tools and\nproduct integrations for successful production readiness. It provides client\nAndroid SDKs to directly integrate and call Gemini APIs from client code,\nsimplifying development by eliminating the need for a backend.\n\nAPI providers\n-------------\n\nFirebase AI Logic lets you use the following Google Gemini API providers:\nGemini *Developer API* and Vertex *AI Gemini API*.\n**Figure 1.** Firebase AI Logic integration architecture.\n\nHere are the primary differences for each API provider:\n\n[**Gemini Developer API**](/ai/gemini/developer-api):\n\n- Get started at no-cost with a generous free tier without payment information required.\n- Optionally upgrade to the paid tier of the Gemini Developer API to scale as your user base grows.\n- Iterate and experiment with prompts and even get code snippets using [Google AI Studio](https://aistudio.google.com/).\n\n[**Vertex AI Gemini API**](/ai/vertex-ai-firebase):\n\n- Granular control over [where you access the model](https://cloud.google.com/compute/docs/regions-zones).\n- Ideal for developers already embedded in the Vertex AI/Google Cloud ecosystem.\n- Iterate and experiment with prompts and even get code snippets using [Vertex AI Studio](https://cloud.google.com/vertex-ai/generative-ai/docs/start/quickstarts/quickstart).\n\nSelecting the appropriate API provider for your application is based on your\nbusiness and technical constraints, and familiarity with the Vertex AI and\nGoogle Cloud ecosystem. Most Android developers just getting started with Gemini\nPro or Gemini Flash integrations should begin with the Gemini Developer API.\nSwitching between providers is done by changing the parameter in the model\nconstructor: \n\n### Kotlin\n\n // For Vertex AI, use `backend = GenerativeBackend.vertexAI()`\n val model = Firebase.ai(backend = GenerativeBackend.googleAI())\n .generativeModel(\"gemini-2.5-flash\")\n\n val response = model.generateContent(\"Write a story about a magic backpack\");\n val output = response.text\n\n### Java\n\n // For Vertex AI, use `backend = GenerativeBackend.vertexAI()`\n GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())\n .generativeModel(\"gemini-2.5-flash\");\n\n // Use the GenerativeModelFutures Java compatibility layer which offers\n // support for ListenableFuture and Publisher APIs\n GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);\n\n Content prompt = new Content.Builder()\n .addText(\"Write a story about a magic backpack.\")\n .build();\n\n ListenableFuture\u003cGenerateContentResponse\u003e response = model.generateContent(prompt);\n Futures.addCallback(response, new FutureCallback\u003cGenerateContentResponse\u003e() {\n @Override\n public void onSuccess(GenerateContentResponse result) {\n String resultText = result.getText();\n [...]\n }\n\n @Override\n public void onFailure(Throwable t) {\n t.printStackTrace();\n }\n }, executor);\n\nSee the full [list of available generative AI models](https://firebase.google.com/docs/vertex-ai/models) supported\nby Firebase AI Logic client SDKs.\n\nFirebase services\n-----------------\n\nIn addition to access to the Gemini API, Firebase AI Logic offers a set of\nservices to simplify the deployment of AI-enabled features to your app and get\nready for production:\n\n### App Check\n\n[Firebase App Check](https://firebase.google.com/docs/app-check) safeguards app backends from abuse by\nensuring only authorized clients access resources. It integrates with Google\nservices (including Firebase and Google Cloud) and custom backends. App Check\nuses [Play Integrity](/google/play/integrity) to verify that requests originate from the authentic\napp and an untampered device.\n\n### Remote Config\n\nInstead of hardcoding the model name in your app, we recommend using a\nserver-controlled variable using [Firebase Remote Config](https://firebase.google.com/docs/remote-config). This\nlets you dynamically update the model your app uses without having to deploy a\nnew version of your app or require your users to pick up a new version. You can\nalso use Remote Config to [A/B test](https://firebase.google.com/docs/ab-testing/abtest-config) models and prompts.\n\n### AI monitoring\n\nTo understand how your AI-enabled features are performing you can use the [AI\nmonitoring dashboard](https://firebase.google.com/docs/vertex-ai/monitoring) within the Firebase console. You'll get\nvaluable insights into usage patterns, performance metrics, and debugging\ninformation for your Gemini API calls.\n\nMigrate to Firebase AI Logic\n----------------------------\n\nIf you're already using the Vertex AI in Firebase SDK in your app, read the\n[migration guide](https://firebase.google.com/docs/vertex-ai/migrate-to-latest-sdk)."]]