Firebase AI Logic ช่วยให้นักพัฒนาแอปเพิ่ม Generative AI ของ Google ลงในแอปได้อย่างปลอดภัยและโดยตรง ซึ่งจะลดความซับซ้อนในการพัฒนา และให้บริการเครื่องมือและการผสานรวมผลิตภัณฑ์เพื่อให้พร้อมใช้งานในเวอร์ชันที่ใช้งานจริง ซึ่งให้บริการ SDK ของ Android สำหรับไคลเอ็นต์เพื่อผสานรวมและเรียกใช้ Gemini API จากโค้ดไคลเอ็นต์โดยตรง ซึ่งจะลดความซับซ้อนในการพัฒนาโดยไม่ต้องใช้แบ็กเอนด์
ผู้ให้บริการ API
Firebase AI Logic ช่วยให้คุณใช้ผู้ให้บริการ Google Gemini API ต่อไปนี้ได้
Gemini Developer API และ Vertex AI Gemini API
รูปที่ 1
สถาปัตยกรรมการผสานรวมตรรกะ AI ของ Firebase
ความแตกต่างหลักๆ ของผู้ให้บริการ API แต่ละรายมีดังนี้
ทดสอบและลองใช้พรอมต์ต่างๆ รวมถึงรับข้อมูลโค้ดโดยใช้ Vertex AI Studio
การเลือกผู้ให้บริการ API ที่เหมาะสมสําหรับแอปพลิเคชันจะขึ้นอยู่กับข้อจํากัดทางธุรกิจและทางเทคนิค รวมถึงความคุ้นเคยกับ Vertex AI และระบบนิเวศของ Google Cloud นักพัฒนาแอป Android ส่วนใหญ่ที่เพิ่งเริ่มต้นการผสานรวมกับ Gemini Pro หรือ Gemini Flash ควรเริ่มต้นด้วย Gemini Developer API
การสลับระหว่างผู้ให้บริการทำได้โดยเปลี่ยนพารามิเตอร์ในคอนสตรัคเตอร์ของโมเดล ดังนี้
Kotlin
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`valmodel=Firebase.ai(backend=GenerativeBackend.googleAI()).generativeModel("gemini-2.5-flash")valresponse=model.generateContent("Write a story about a magic backpack");valoutput=response.text
Java
// For Vertex AI, use `backend = GenerativeBackend.vertexAI()`GenerativeModelfirebaseAI=FirebaseAI.getInstance(GenerativeBackend.googleAI()).generativeModel("gemini-2.5-flash");// Use the GenerativeModelFutures Java compatibility layer which offers// support for ListenableFuture and Publisher APIsGenerativeModelFuturesmodel=GenerativeModelFutures.from(firebaseAI);Contentprompt=newContent.Builder().addText("Write a story about a magic backpack.").build();ListenableFuture<GenerateContentResponse>response=model.generateContent(prompt);Futures.addCallback(response,newFutureCallback<GenerateContentResponse>(){@OverridepublicvoidonSuccess(GenerateContentResponseresult){StringresultText=result.getText();[...]}@OverridepublicvoidonFailure(Throwablet){t.printStackTrace();}},executor);
นอกจากการเข้าถึง Gemini API แล้ว Firebase AI Logic ยังมีชุดบริการที่ช่วยให้การติดตั้งใช้งานฟีเจอร์ที่พร้อมใช้งาน AI ในแอปของคุณง่ายขึ้นและพร้อมใช้งานจริง
การตรวจสอบแอปพลิเคชัน
Firebase App Check ช่วยปกป้องแบ็กเอนด์ของแอปจากการละเมิดโดยการตรวจสอบว่ามีเพียงไคลเอ็นต์ที่ได้รับอนุญาตเท่านั้นที่เข้าถึงทรัพยากรได้ โดยผสานรวมกับบริการของ Google (รวมถึง Firebase และ Google Cloud) และแบ็กเอนด์ที่กำหนดเอง App Check ใช้ Play Integrity เพื่อยืนยันว่าคำขอมาจากแอปที่ถูกต้องและอุปกรณ์ที่ไม่มีการดัดแปลง
หากต้องการทําความเข้าใจประสิทธิภาพของฟีเจอร์ที่เปิดใช้ AI ให้ใช้แดชบอร์ดการตรวจสอบ AI ในคอนโซล Firebase คุณจะได้รับข้อมูลเชิงลึกที่มีประโยชน์เกี่ยวกับรูปแบบการใช้งาน เมตริกประสิทธิภาพ และข้อมูลการแก้ไขข้อบกพร่องสำหรับการเรียกใช้ Gemini API
ย้ายข้อมูลไปยัง Firebase AI Logic
หากคุณใช้ Vertex AI ใน Firebase SDK ในแอปอยู่แล้ว โปรดอ่านคู่มือการย้ายข้อมูล
[[["เข้าใจง่าย","easyToUnderstand","thumb-up"],["แก้ปัญหาของฉันได้","solvedMyProblem","thumb-up"],["อื่นๆ","otherUp","thumb-up"]],[["ไม่มีข้อมูลที่ฉันต้องการ","missingTheInformationINeed","thumb-down"],["ซับซ้อนเกินไป/มีหลายขั้นตอนมากเกินไป","tooComplicatedTooManySteps","thumb-down"],["ล้าสมัย","outOfDate","thumb-down"],["ปัญหาเกี่ยวกับการแปล","translationIssue","thumb-down"],["ตัวอย่าง/ปัญหาเกี่ยวกับโค้ด","samplesCodeIssue","thumb-down"],["อื่นๆ","otherDown","thumb-down"]],["อัปเดตล่าสุด 2025-08-17 UTC"],[],[],null,["# Gemini AI models\n\nThe Gemini Pro and Gemini Flash model families offer Android developers\nmultimodal AI capabilities, running inference in the cloud and processing image,\naudio, video, and text inputs in Android apps.\n\n- **Gemini Pro**: Gemini 2.5 Pro is Google's state-of-the-art thinking model, capable of reasoning over complex problems in code, math, and STEM, as well as analyzing large datasets, codebases, and documents using long context.\n- **Gemini Flash**: The Gemini Flash models deliver next-gen features and improved capabilities, including superior speed, built-in tool use, and a 1M token context window.\n\n| **Note:** This document covers the cloud-based Gemini AI models. For on-device inference, [check out the Gemini Nano documentation](/ai/gemini-nano).\n\nFirebase AI Logic\n-----------------\n\nFirebase AI Logic enables developers to securely and directly add Google's\ngenerative AI into their apps simplifying development, and offers tools and\nproduct integrations for successful production readiness. It provides client\nAndroid SDKs to directly integrate and call Gemini APIs from client code,\nsimplifying development by eliminating the need for a backend.\n\nAPI providers\n-------------\n\nFirebase AI Logic lets you use the following Google Gemini API providers:\nGemini *Developer API* and Vertex *AI Gemini API*.\n**Figure 1.** Firebase AI Logic integration architecture.\n\nHere are the primary differences for each API provider:\n\n[**Gemini Developer API**](/ai/gemini/developer-api):\n\n- Get started at no-cost with a generous free tier without payment information required.\n- Optionally upgrade to the paid tier of the Gemini Developer API to scale as your user base grows.\n- Iterate and experiment with prompts and even get code snippets using [Google AI Studio](https://aistudio.google.com/).\n\n[**Vertex AI Gemini API**](/ai/vertex-ai-firebase):\n\n- Granular control over [where you access the model](https://cloud.google.com/compute/docs/regions-zones).\n- Ideal for developers already embedded in the Vertex AI/Google Cloud ecosystem.\n- Iterate and experiment with prompts and even get code snippets using [Vertex AI Studio](https://cloud.google.com/vertex-ai/generative-ai/docs/start/quickstarts/quickstart).\n\nSelecting the appropriate API provider for your application is based on your\nbusiness and technical constraints, and familiarity with the Vertex AI and\nGoogle Cloud ecosystem. Most Android developers just getting started with Gemini\nPro or Gemini Flash integrations should begin with the Gemini Developer API.\nSwitching between providers is done by changing the parameter in the model\nconstructor: \n\n### Kotlin\n\n // For Vertex AI, use `backend = GenerativeBackend.vertexAI()`\n val model = Firebase.ai(backend = GenerativeBackend.googleAI())\n .generativeModel(\"gemini-2.5-flash\")\n\n val response = model.generateContent(\"Write a story about a magic backpack\");\n val output = response.text\n\n### Java\n\n // For Vertex AI, use `backend = GenerativeBackend.vertexAI()`\n GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())\n .generativeModel(\"gemini-2.5-flash\");\n\n // Use the GenerativeModelFutures Java compatibility layer which offers\n // support for ListenableFuture and Publisher APIs\n GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);\n\n Content prompt = new Content.Builder()\n .addText(\"Write a story about a magic backpack.\")\n .build();\n\n ListenableFuture\u003cGenerateContentResponse\u003e response = model.generateContent(prompt);\n Futures.addCallback(response, new FutureCallback\u003cGenerateContentResponse\u003e() {\n @Override\n public void onSuccess(GenerateContentResponse result) {\n String resultText = result.getText();\n [...]\n }\n\n @Override\n public void onFailure(Throwable t) {\n t.printStackTrace();\n }\n }, executor);\n\nSee the full [list of available generative AI models](https://firebase.google.com/docs/vertex-ai/models) supported\nby Firebase AI Logic client SDKs.\n\nFirebase services\n-----------------\n\nIn addition to access to the Gemini API, Firebase AI Logic offers a set of\nservices to simplify the deployment of AI-enabled features to your app and get\nready for production:\n\n### App Check\n\n[Firebase App Check](https://firebase.google.com/docs/app-check) safeguards app backends from abuse by\nensuring only authorized clients access resources. It integrates with Google\nservices (including Firebase and Google Cloud) and custom backends. App Check\nuses [Play Integrity](/google/play/integrity) to verify that requests originate from the authentic\napp and an untampered device.\n\n### Remote Config\n\nInstead of hardcoding the model name in your app, we recommend using a\nserver-controlled variable using [Firebase Remote Config](https://firebase.google.com/docs/remote-config). This\nlets you dynamically update the model your app uses without having to deploy a\nnew version of your app or require your users to pick up a new version. You can\nalso use Remote Config to [A/B test](https://firebase.google.com/docs/ab-testing/abtest-config) models and prompts.\n\n### AI monitoring\n\nTo understand how your AI-enabled features are performing you can use the [AI\nmonitoring dashboard](https://firebase.google.com/docs/vertex-ai/monitoring) within the Firebase console. You'll get\nvaluable insights into usage patterns, performance metrics, and debugging\ninformation for your Gemini API calls.\n\nMigrate to Firebase AI Logic\n----------------------------\n\nIf you're already using the Vertex AI in Firebase SDK in your app, read the\n[migration guide](https://firebase.google.com/docs/vertex-ai/migrate-to-latest-sdk)."]]