Gemini AI 모델

Gemini Pro 및 Gemini Flash 모델 제품군은 Android 개발자에게 멀티모달 AI 기능을 제공하여 클라우드에서 추론을 실행하고 Android 앱에서 이미지, 오디오, 동영상, 텍스트 입력을 처리합니다.

  • Gemini Pro: Gemini 2.5 Pro는 코드, 수학, STEM의 복잡한 문제를 추론하고 긴 컨텍스트를 사용하여 대규모 데이터 세트, 코드베이스, 문서를 분석할 수 있는 Google의 최신 사고 모델입니다.
  • Gemini Flash: Gemini Flash 모델은 빠른 속도, 기본 제공 도구 사용, 토큰 컨텍스트 윈도우 100만 개 등 차세대 기능과 향상된 기능을 제공합니다.

Firebase AI 로직

Firebase AI 로직을 사용하면 개발자가 Google의 생성형 AI를 앱에 안전하고 직접적으로 추가하여 개발을 간소화할 수 있으며, 성공적인 프로덕션 준비를 위한 도구 및 제품 통합을 제공합니다. 클라이언트 Android SDK를 제공하여 클라이언트 코드에서 Gemini API를 직접 통합하고 호출할 수 있으므로 백엔드가 필요하지 않아 개발이 간소화됩니다.

API 제공업체

Firebase AI 로직을 사용하면 Gemini Developer API 및 Vertex AI Gemini API와 같은 Google Gemini API 제공업체를 사용할 수 있습니다.

Firebase Android SDK를 사용하여 클라우드의 Firebase에 연결하는 Android 앱을 보여주는 그림 그런 다음 AI 로직은 Gemini Pro 및 Flash 모델을 모두 활용하는 두 가지 경로인 Gemini Developer API 또는 Google Cloud Platform의 Vertex AI를 사용하여 통합됩니다.
그림 1. Firebase AI 로직 통합 아키텍처

각 API 제공업체의 주요 차이점은 다음과 같습니다.

Gemini Developer API:

  • 결제 정보 없이 넉넉한 무료 등급을 무료로 시작해 보세요.
  • 원하는 경우 Gemini Developer API의 유료 등급으로 업그레이드하여 사용자층이 늘어날 때 확장할 수 있습니다.
  • Google AI Studio를 사용하여 프롬프트를 반복하고 실험하며 코드 스니펫을 가져올 수도 있습니다.

Vertex AI Gemini API:

  • 모델에 액세스하는 위치를 세분화하여 제어합니다.
  • 이미 Vertex AI/Google Cloud 생태계에 삽입된 개발자에게 적합합니다.
  • Vertex AI Studio를 사용하여 프롬프트를 반복하고 실험하며 코드 스니펫을 가져올 수도 있습니다.

애플리케이션에 적절한 API 제공업체를 선택하는 것은 비즈니스 및 기술적 제약조건과 Vertex AI 및 Google Cloud 생태계에 대한 숙련도에 따라 달라집니다. Gemini Pro 또는 Gemini Flash 통합을 처음 시작하는 대부분의 Android 개발자는 Gemini Developer API로 시작해야 합니다. 제공업체 간에 전환하려면 모델 생성자의 매개변수를 변경하면 됩니다.

Kotlin

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.0-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

자바

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.0-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Firebase AI 로직 클라이언트 SDK에서 지원하는 사용 가능한 생성형 AI 모델의 전체 목록을 확인하세요.

Firebase 서비스

Firebase AI 로직은 Gemini API에 대한 액세스 외에도 앱에 AI 지원 기능을 간편하게 배포하고 프로덕션 준비를 할 수 있는 일련의 서비스를 제공합니다.

앱 확인

Firebase 앱 체크는 승인된 클라이언트만 리소스에 액세스하도록 하여 앱 백엔드를 악용으로부터 보호합니다. Google 서비스 (Firebase 및 Google Cloud 포함) 및 맞춤 백엔드와 통합됩니다. 앱 체크는 Play Integrity를 사용하여 요청이 인증된 앱과 변조되지 않은 기기에서 발생했는지 확인합니다.

Remote Config

앱에 모델 이름을 하드코딩하는 대신 Firebase 원격 구성을 사용하여 서버 제어 변수를 사용하는 것이 좋습니다. 이렇게 하면 새 버전의 앱을 배포하거나 사용자가 새 버전을 선택하도록 요구하지 않고도 앱에서 사용하는 모델을 동적으로 업데이트할 수 있습니다. 원격 구성을 사용하여 모델과 프롬프트를 A/B 테스트할 수도 있습니다.

AI 모니터링

AI 지원 기능의 실적을 파악하려면 Firebase Console 내의 AI 모니터링 대시보드를 사용하세요. Gemini API 호출의 사용 패턴, 성능 측정항목, 디버깅 정보에 관한 유용한 정보를 얻을 수 있습니다.

Firebase AI 로직으로 이전

앱에서 이미 Firebase SDK의 Vertex AI를 사용하고 있다면 이전 가이드를 참고하세요.