Gemini Pro 및 Gemini Flash 모델 제품군은 Android 개발자에게 멀티모달 AI 기능을 제공하여 클라우드에서 추론을 실행하고 Android 앱에서 이미지, 오디오, 동영상, 텍스트 입력을 처리합니다.
- Gemini Pro: Gemini 2.5 Pro는 Google의 최첨단 사고 모델로, 코드, 수학, STEM의 복잡한 문제를 추론할 수 있을 뿐만 아니라 긴 컨텍스트를 사용하여 대규모 데이터 세트, 코드베이스, 문서를 분석할 수 있습니다.
- Gemini Flash: Gemini Flash 모델은 빠른 속도, 기본 제공 도구 사용, 토큰 컨텍스트 윈도우 100만 개 등 차세대 기능과 향상된 기능을 제공합니다.
Firebase AI Logic
Firebase AI Logic을 사용하면 개발자가 Google의 생성형 AI를 앱에 안전하게 직접 추가하여 개발을 간소화할 수 있으며, 성공적인 프로덕션 준비를 위한 도구와 제품 통합을 제공합니다. 클라이언트 코드에서 Gemini API를 직접 통합하고 호출할 수 있는 클라이언트 Android SDK를 제공하여 백엔드가 필요하지 않으므로 개발을 간소화합니다.
API 제공업체
Firebase AI Logic을 사용하면 Gemini Developer API 및 Vertex AI Gemini API와 같은 Google Gemini API 제공업체를 사용할 수 있습니다.
각 API 제공업체의 주요 차이점은 다음과 같습니다.
- 결제 정보가 필요 없는 넉넉한 무료 등급으로 무료로 시작하세요.
- 사용자층이 증가함에 따라 확장하려면 Gemini Developer API의 유료 등급으로 업그레이드하세요.
- Google AI Studio를 사용하여 프롬프트를 반복하고 실험하며 코드 스니펫까지 가져올 수 있습니다.
- 모델에 액세스하는 위치에 대한 세부적인 제어
- Vertex AI/Google Cloud 생태계에 이미 포함된 개발자에게 적합합니다.
- Vertex AI Studio를 사용하여 프롬프트를 반복하고 실험하며 코드 스니펫까지 가져올 수 있습니다.
애플리케이션에 적합한 API 제공업체를 선택하는 것은 비즈니스 및 기술 제약 조건과 Vertex AI 및 Google Cloud 생태계에 대한 숙련도에 따라 달라집니다. Gemini Pro 또는 Gemini Flash 통합을 처음 시작하는 대부분의 Android 개발자는 Gemini Developer API로 시작해야 합니다. 공급자 간 전환은 모델 생성자에서 매개변수를 변경하여 실행됩니다.
Kotlin
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash")
val response = model.generateContent("Write a story about a magic backpack");
val output = response.text
자바
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
Firebase AI Logic 클라이언트 SDK에서 지원하는 사용 가능한 생성형 AI 모델의 전체 목록을 확인하세요.
Firebase 서비스
Firebase AI Logic은 Gemini API에 대한 액세스 외에도 AI 지원 기능을 앱에 간편하게 배포하고 프로덕션 준비를 할 수 있는 서비스 세트를 제공합니다.
앱 확인
Firebase 앱 체크는 승인된 클라이언트만 리소스에 액세스할 수 있도록 하여 앱 백엔드를 악용으로부터 보호합니다. Google 서비스 (Firebase 및 Google Cloud 포함) 및 맞춤 백엔드와 통합됩니다. 앱 체크는 Play Integrity를 사용하여 요청이 인증된 앱과 변조되지 않은 기기에서 발생했는지 확인합니다.
Remote Config
앱에서 모델 이름을 하드코딩하는 대신 Firebase 원격 구성을 사용하여 서버 제어 변수를 사용하는 것이 좋습니다. 이를 통해 앱의 새 버전을 배포하거나 사용자에게 새 버전을 선택하도록 요구하지 않고도 앱에서 사용하는 모델을 동적으로 업데이트할 수 있습니다. 원격 구성을 사용하여 모델과 프롬프트를 A/B 테스트할 수도 있습니다.
AI 모니터링
AI 지원 기능의 성능을 파악하려면 Firebase Console 내의 AI 모니터링 대시보드를 사용하세요. Gemini API 호출의 사용 패턴, 성능 측정항목, 디버깅 정보에 대한 유용한 정보를 얻을 수 있습니다.
Firebase AI Logic으로 이전
앱에서 이미 Vertex AI in Firebase SDK를 사용하고 있다면 이전 가이드를 참고하세요.