Mô hình AI của Gemini

Các nhóm mô hình Gemini Pro và Gemini Flash cung cấp cho nhà phát triển Android các tính năng AI đa phương thức, chạy suy luận trên đám mây và xử lý hình ảnh, âm thanh, video cũng như dữ liệu đầu vào văn bản trong các ứng dụng Android.

  • Gemini Pro: Gemini 2.5 Pro là mô hình tư duy tiên tiến nhất của Google, có khả năng lập luận về các vấn đề phức tạp trong mã, toán học và STEM, cũng như phân tích các tập dữ liệu lớn, cơ sở mã và tài liệu bằng ngữ cảnh dài.
  • Gemini Flash: Các mô hình Gemini Flash mang đến các tính năng thế hệ mới và khả năng cải tiến, bao gồm tốc độ vượt trội, sử dụng công cụ tích hợp và cửa sổ ngữ cảnh 1 triệu mã thông báo.

Logic AI của Firebase

Logic AI của Firebase cho phép nhà phát triển thêm trực tiếp và an toàn AI tạo sinh của Google vào ứng dụng của họ, giúp đơn giản hoá quá trình phát triển, đồng thời cung cấp các công cụ và tính năng tích hợp sản phẩm để sẵn sàng phát hành thành công. Thư viện này cung cấp SDK Android cho ứng dụng khách để tích hợp và gọi trực tiếp các API Gemini từ mã ứng dụng khách, giúp đơn giản hoá quá trình phát triển bằng cách loại bỏ nhu cầu về phần phụ trợ.

Nhà cung cấp API

Logic AI của Firebase cho phép bạn sử dụng các nhà cung cấp API Gemini của Google sau đây: API dành cho nhà phát triển Gemini và API Gemini AI của Vertex.

Hình minh hoạ cho thấy một ứng dụng Android sử dụng SDK Firebase cho Android để kết nối với Firebase trên đám mây. Từ đó, logic AI tích hợp bằng cách sử dụng hai đường dẫn: API Nhà phát triển Gemini hoặc Vertex AI của Google Cloud Platform, cả hai đều tận dụng các mô hình Gemini Pro và Flash.
Hình 1. Cấu trúc tích hợp Logic AI của Firebase.

Sau đây là những điểm khác biệt chính của từng nhà cung cấp API:

API dành cho nhà phát triển Gemini:

  • Bắt đầu sử dụng mà không tốn phí với một gói miễn phí hào phóng mà không cần cung cấp thông tin thanh toán.
  • Bạn có thể nâng cấp lên cấp có tính phí của API dành cho nhà phát triển Gemini để mở rộng quy mô khi cơ sở người dùng của bạn phát triển.
  • Lặp lại và thử nghiệm với các câu lệnh, thậm chí lấy đoạn mã bằng Google AI Studio.

Vertex AI Gemini API:

Việc chọn nhà cung cấp API phù hợp cho ứng dụng của bạn dựa trên các quy tắc ràng buộc về kinh doanh và kỹ thuật, cũng như mức độ quen thuộc với Vertex AI và hệ sinh thái Google Cloud. Hầu hết các nhà phát triển Android mới bắt đầu tích hợp Gemini Pro hoặc Gemini Flash nên bắt đầu với API dành cho nhà phát triển Gemini. Bạn có thể chuyển đổi giữa các nhà cung cấp bằng cách thay đổi tham số trong hàm khởi tạo mô hình:

Kotlin

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
    .generativeModel("gemini-2.0-flash")

val response = model.generateContent("Write a story about a magic backpack");
val output = response.text

Java

// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.0-flash");

// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

Xem danh sách đầy đủ các mô hình AI tạo sinh hiện có được hỗ trợ bởi SDK ứng dụng Logic AI của Firebase.

Dịch vụ Firebase

Ngoài quyền truy cập vào API Gemini, Logic AI của Firebase còn cung cấp một bộ dịch vụ để đơn giản hoá việc triển khai các tính năng hỗ trợ AI cho ứng dụng của bạn và sẵn sàng phát hành công khai:

Kiểm tra ứng dụng

Kiểm tra ứng dụng Firebase bảo vệ phần phụ trợ của ứng dụng khỏi hành vi lạm dụng bằng cách đảm bảo chỉ những ứng dụng được uỷ quyền mới có quyền truy cập vào tài nguyên. Thư viện này tích hợp với các dịch vụ của Google (bao gồm cả Firebase và Google Cloud) và các phần phụ trợ tuỳ chỉnh. Tính năng Kiểm tra ứng dụng sử dụng Tính toàn vẹn của Play để xác minh rằng các yêu cầu bắt nguồn từ ứng dụng chính thống và thiết bị không bị can thiệp.

Cấu hình từ xa

Thay vì mã hoá cứng tên mô hình trong ứng dụng, bạn nên sử dụng biến do máy chủ kiểm soát bằng Cấu hình từ xa Firebase. Điều này cho phép bạn cập nhật linh động mô hình mà ứng dụng của bạn sử dụng mà không cần triển khai phiên bản mới của ứng dụng hoặc yêu cầu người dùng chọn phiên bản mới. Bạn cũng có thể sử dụng Cấu hình từ xa để thử nghiệm A/B các mô hình và lời nhắc.

Giám sát bằng AI

Để hiểu rõ hiệu suất của các tính năng sử dụng AI, bạn có thể sử dụng trang tổng quan giám sát AI trong bảng điều khiển Firebase. Bạn sẽ nhận được thông tin chi tiết có giá trị về các mẫu sử dụng, chỉ số hiệu suất và thông tin gỡ lỗi cho các lệnh gọi API Gemini.

Di chuyển sang Logic AI của Firebase

Nếu bạn đang sử dụng Vertex AI trong SDK Firebase trong ứng dụng, hãy đọc hướng dẫn di chuyển.