Tích hợp với Gemini Live API cho kính AI

Các thiết bị XR áp dụng
Hướng dẫn này giúp bạn tạo trải nghiệm cho các loại thiết bị XR này.
Kính AI

Gemini Live API cung cấp một giải pháp toàn diện để triển khai các giao diện trò chuyện với người dùng. Khi tạo ứng dụng cho Android XR, bạn có thể tích hợp với Gemini Live API thông qua Firebase AI Logic. Không giống như khi dùng công nghệ Chuyển văn bản sang lời nói (TTS)Tự động nhận dạng lời nói (ASR), Gemini Live API xử lý cả đầu vào và đầu ra âm thanh một cách liền mạch. Gemini Live API yêu cầu phải có kết nối Internet liên tục, phát sinh chi phí, hỗ trợ số lượng kết nối đồng thời có hạn cho mỗi dự án và có thể không phù hợp để xử lý các điều kiện lỗi hoặc thông tin liên lạc quan trọng khác của người dùng, đặc biệt là trên kính AI không có màn hình.

Ngoài việc hỗ trợ các giao diện âm thanh, bạn cũng có thể dùng Gemini Live API để tạo ra những trải nghiệm có tính đại diện.

Để bắt đầu sử dụng Gemini Live API, hãy làm theo các bước được nêu trong hướng dẫn về Gemini Live API. Hướng dẫn này sẽ hướng dẫn bạn cách khởi tạo và định cấu hình LiveGenerativeModel, thiết lập LiveSession và tạo các phiên bản FunctionDeclaration tuỳ chỉnh cho phép ứng dụng của bạn xử lý các yêu cầu từ Gemini.