ตระกูลโมเดล Gemini Pro และ Gemini Flash มอบความสามารถด้าน AI แบบมัลติโมดัลแก่นักพัฒนาแอป Android โดยเรียกใช้การอนุมานในระบบคลาวด์และประมวลผลอินพุตรูปภาพ เสียง วิดีโอ และข้อความในแอป Android
- Gemini Pro: Gemini 2.5 Pro เป็นโมเดลการคิดที่ล้ำสมัยของ Google ซึ่งสามารถให้เหตุผลเกี่ยวกับปัญหาที่ซับซ้อนในโค้ด คณิตศาสตร์ และ STEM รวมถึง วิเคราะห์ชุดข้อมูล ฐานของโค้ด และเอกสารขนาดใหญ่โดยใช้บริบทแบบยาว
- Gemini Flash: โมเดล Gemini Flash มีฟีเจอร์รุ่นถัดไปและความสามารถที่ได้รับการปรับปรุง ซึ่งรวมถึงความเร็วที่เหนือกว่า การใช้เครื่องมือในตัว และหน้าต่างบริบทขนาด 1 ล้านโทเค็น
Firebase AI Logic
ตรรกะ AI ของ Firebase ช่วยให้นักพัฒนาแอปเพิ่ม Generative AI ของ Google ลงในแอปของตนได้อย่างปลอดภัยและโดยตรง ซึ่งจะช่วยลดความซับซ้อนในการพัฒนา รวมถึงมีเครื่องมือและการผสานรวมผลิตภัณฑ์เพื่อให้พร้อมสำหรับการใช้งานจริงที่ประสบความสำเร็จ โดยมี Android SDK ของไคลเอ็นต์เพื่อผสานรวมและเรียกใช้ Gemini API จากโค้ดฝั่งไคลเอ็นต์โดยตรง ซึ่งจะช่วยลดความซับซ้อนในการพัฒนาด้วยการไม่จำเป็นต้องใช้แบ็กเอนด์
ผู้ให้บริการ API
ตรรกะ AI ของ Firebase ช่วยให้คุณใช้ผู้ให้บริการ Google Gemini API ต่อไปนี้ได้ Gemini Developer API และ Vertex AI Gemini API
ข้อแตกต่างหลักๆ สำหรับผู้ให้บริการ API แต่ละรายมีดังนี้
- เริ่มต้นใช้งานโดยไม่มีค่าใช้จ่ายด้วย Free Tier ที่มีโควต้ามากมายโดยไม่ต้องระบุข้อมูลการชำระเงิน
- คุณเลือกอัปเกรดเป็นระดับแบบชำระเงินของ Gemini Developer API เพื่อปรับขนาดตามการเติบโตของฐานผู้ใช้ได้
- ทำซ้ำและทดลองใช้พรอมต์ รวมถึงรับข้อมูลโค้ดโดยใช้ Google AI Studio
- ควบคุมตำแหน่งที่คุณเข้าถึงโมเดลได้อย่างละเอียด
- เหมาะสำหรับนักพัฒนาแอปที่อยู่ในระบบนิเวศ Vertex AI/Google Cloud อยู่แล้ว
- ทำซ้ำและทดลองใช้พรอมต์ รวมถึงรับโค้ดที่ตัดตอนมาโดยใช้ Vertex AI Studio
การเลือกผู้ให้บริการ API ที่เหมาะสมสำหรับแอปพลิเคชันของคุณขึ้นอยู่กับข้อจำกัดทางธุรกิจและทางเทคนิค รวมถึงความคุ้นเคยกับ Vertex AI และ ระบบนิเวศของ Google Cloud นักพัฒนาแอป Android ส่วนใหญ่ที่เพิ่งเริ่มต้นใช้งานการผสานรวม Gemini Pro หรือ Gemini Flash ควรเริ่มต้นด้วย Gemini Developer API การสลับระหว่างผู้ให้บริการทำได้โดยการเปลี่ยนพารามิเตอร์ในตัวสร้างโมเดล
Kotlin
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
val model = Firebase.ai(backend = GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash")
val response = model.generateContent("Write a story about a magic backpack");
val output = response.text
Java
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`
GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
.generativeModel("gemini-2.5-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
[...]
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
ดูรายการโมเดล Generative AI ที่พร้อมใช้งานทั้งหมดที่ SDK ไคลเอ็นต์ของ Firebase AI Logic รองรับ
บริการของ Firebase
นอกเหนือจากการเข้าถึง Gemini API แล้ว Firebase AI Logic ยังมีชุดบริการเพื่อลดความซับซ้อนในการติดตั้งใช้งานฟีเจอร์ที่เปิดใช้ AI ในแอปและเตรียมพร้อมสำหรับการใช้งานจริง ดังนี้
การตรวจสอบแอปพลิเคชัน
Firebase App Check ช่วยปกป้องแบ็กเอนด์ของแอปจากการละเมิดโดย การตรวจสอบว่าเฉพาะไคลเอ็นต์ที่ได้รับอนุญาตเท่านั้นที่เข้าถึงทรัพยากรได้ โดยจะผสานรวมกับบริการของ Google (รวมถึง Firebase และ Google Cloud) และแบ็กเอนด์ที่กำหนดเอง App Check ใช้ Play Integrity เพื่อยืนยันว่าคำขอมาจากแอปจริง และอุปกรณ์ที่ไม่มีการดัดแปลง
การกำหนดค่าระยะไกล
เราขอแนะนำให้ใช้ตัวแปรที่ควบคุมโดยเซิร์ฟเวอร์โดยใช้การกำหนดค่าระยะไกลของ Firebase แทนการฮาร์ดโค้ดชื่อโมเดลในแอป ซึ่งช่วยให้คุณอัปเดตโมเดลที่แอปใช้แบบไดนามิกได้โดยไม่ต้อง ติดตั้งใช้งานแอปเวอร์ชันใหม่หรือกำหนดให้ผู้ใช้เลือกใช้เวอร์ชันใหม่ นอกจากนี้ คุณยังใช้การกำหนดค่าระยะไกลเพื่อทดสอบ A/B โมเดลและพรอมต์ได้ด้วย
การตรวจสอบ AI
หากต้องการทราบประสิทธิภาพของฟีเจอร์ที่เปิดใช้ AI คุณสามารถใช้แดชบอร์ดการตรวจสอบ AI ภายในคอนโซล Firebase คุณจะได้รับ ข้อมูลเชิงลึกที่มีประโยชน์เกี่ยวกับรูปแบบการใช้งาน เมตริกประสิทธิภาพ และข้อมูลการแก้ไขข้อบกพร่อง สำหรับการเรียก Gemini API
ย้ายข้อมูลไปยัง Firebase AI Logic
หากคุณใช้ Vertex AI ใน Firebase SDK ในแอปอยู่แล้ว โปรดอ่านคู่มือการย้ายข้อมูล