Hướng dẫn này được thiết kế để giúp bạn tích hợp các giải pháp trí tuệ nhân tạo tạo sinh và học máy (AI/ML) của Google vào các ứng dụng của mình. Tài liệu này cung cấp hướng dẫn giúp bạn tìm hiểu các giải pháp trí tuệ nhân tạo và học máy hiện có, đồng thời chọn giải pháp phù hợp nhất với nhu cầu của bạn. Mục tiêu của tài liệu này là giúp bạn xác định công cụ cần sử dụng và lý do sử dụng bằng cách tập trung vào nhu cầu và trường hợp sử dụng của bạn.
Để hỗ trợ bạn chọn giải pháp AI/học máy phù hợp nhất với các yêu cầu cụ thể của mình, tài liệu này có hướng dẫn về các giải pháp. Bằng cách trả lời một loạt câu hỏi về mục tiêu và các hạn chế của dự án, hướng dẫn này sẽ hướng dẫn bạn sử dụng các công cụ và công nghệ phù hợp nhất.
Hướng dẫn này giúp bạn chọn giải pháp AI phù hợp nhất cho ứng dụng của mình. Hãy cân nhắc những yếu tố sau: loại dữ liệu (văn bản, hình ảnh, âm thanh, video), độ phức tạp của tác vụ (từ tóm tắt đơn giản đến các tác vụ phức tạp cần kiến thức chuyên môn) và kích thước dữ liệu (đầu vào ngắn so với tài liệu lớn). Điều này sẽ giúp bạn quyết định giữa việc sử dụng Gemini Nano trên thiết bị hoặc AI dựa trên đám mây của Firebase (Gemini Flash, Gemini Pro hoặc Imagen).
Khai thác sức mạnh của tính năng suy luận trên thiết bị
Khi thêm các tính năng AI và ML vào ứng dụng Android, bạn có thể chọn nhiều cách để phân phối các tính năng đó – trên thiết bị hoặc bằng cách sử dụng đám mây.
Các giải pháp trên thiết bị như Gemini Nano mang lại kết quả mà không tốn thêm chi phí, tăng cường quyền riêng tư của người dùng và cung cấp chức năng ngoại tuyến đáng tin cậy vì dữ liệu đầu vào được xử lý cục bộ. Những lợi ích này có thể rất quan trọng đối với một số trường hợp sử dụng nhất định, chẳng hạn như tóm tắt tin nhắn, ưu tiên việc xử lý trên thiết bị khi chọn giải pháp phù hợp.
Gemini Nano cho phép bạn chạy suy luận ngay trên thiết bị chạy Android. Nếu bạn đang làm việc với văn bản, hình ảnh hoặc âm thanh, hãy bắt đầu bằng các API GenAI của Bộ công cụ học máy để có các giải pháp sẵn có. Các API GenAI của Bộ công cụ học máy sử dụng Gemini Nano, tận dụng AICore làm dịch vụ hệ thống cơ bản và được tinh chỉnh cho các tác vụ cụ thể trên thiết bị. Các API GenAI của Bộ công cụ học máy là một lựa chọn lý tưởng để phát hành công khai ứng dụng của bạn do có giao diện cấp cao hơn và khả năng mở rộng. Các API này cho phép bạn gửi yêu cầu bằng ngôn ngữ tự nhiên với cả văn bản và hình ảnh đầu vào, hỗ trợ nhiều trường hợp sử dụng như hiểu hình ảnh, bản dịch ngắn, bản tóm tắt có hướng dẫn và nhiều trường hợp khác.
Đối với các tác vụ học máy truyền thống, bạn có thể linh hoạt triển khai các mô hình tuỳ chỉnh của riêng mình. Chúng tôi cung cấp các công cụ mạnh mẽ như Bộ công cụ học máy, MediaPipe, LiteRT và các tính năng phân phối của Google Play để đơn giản hoá quy trình phát triển của bạn.
Đối với những ứng dụng yêu cầu các giải pháp chuyên biệt cao, bạn có thể sử dụng mô hình tuỳ chỉnh của riêng mình, chẳng hạn như Gemma hoặc một mô hình khác được điều chỉnh cho phù hợp với trường hợp sử dụng cụ thể của bạn. Chạy mô hình của bạn ngay trên thiết bị của người dùng bằng LiteRT. LiteRT cung cấp các cấu trúc mô hình được thiết kế sẵn để tối ưu hoá hiệu suất.
Bạn cũng có thể cân nhắc xây dựng một giải pháp kết hợp bằng cách tận dụng cả mô hình trên thiết bị và mô hình đám mây.
Các ứng dụng di động thường sử dụng các mô hình cục bộ cho dữ liệu văn bản nhỏ, chẳng hạn như cuộc trò chuyện hoặc bài viết trên blog. Tuy nhiên, đối với các nguồn dữ liệu lớn hơn (như PDF) hoặc khi cần thêm kiến thức, bạn có thể cần một giải pháp dựa trên đám mây với các mô hình Gemini mạnh mẽ hơn.
Tích hợp các mô hình Gemini tiên tiến
Nhà phát triển Android có thể tích hợp các chức năng AI tạo sinh nâng cao của Google (bao gồm cả các mô hình Gemini Pro, Gemini Flash và Imagen mạnh mẽ) vào ứng dụng của họ bằng SDK Firebase AI Logic. SDK này được thiết kế cho nhu cầu về dữ liệu lớn hơn và cung cấp các chức năng cũng như khả năng thích ứng mở rộng bằng cách cho phép truy cập vào các mô hình AI đa phương thức có hiệu suất cao này.
Với SDK Firebase AI Logic, các nhà phát triển có thể thực hiện các lệnh gọi phía máy khách đến các mô hình AI của Google một cách dễ dàng. Những mô hình này (chẳng hạn như Gemini Pro và Gemini Flash) chạy suy luận trên đám mây và cho phép các ứng dụng Android xử lý nhiều loại dữ liệu đầu vào, bao gồm hình ảnh, âm thanh, video và văn bản. Gemini Pro vượt trội trong việc suy luận về các vấn đề phức tạp và phân tích dữ liệu trên diện rộng, trong khi dòng Gemini Flash mang đến tốc độ vượt trội và cửa sổ ngữ cảnh đủ lớn cho hầu hết các tác vụ.
Trường hợp sử dụng công nghệ học máy truyền thống
Mặc dù AI tạo sinh rất hữu ích trong việc tạo và chỉnh sửa nội dung như văn bản, hình ảnh và mã nguồn, nhưng nhiều vấn đề trong thế giới thực sẽ được giải quyết hiệu quả hơn bằng các kỹ thuật Học máy (ML) truyền thống. Những phương pháp đã được thiết lập này vượt trội trong các nhiệm vụ liên quan đến việc dự đoán, phân loại, phát hiện và hiểu các mẫu trong dữ liệu hiện có, thường có hiệu quả cao hơn, chi phí tính toán thấp hơn và cách triển khai đơn giản hơn so với các mô hình tạo sinh.
Các khung ML truyền thống cung cấp các giải pháp mạnh mẽ, được tối ưu hoá và thường thiết thực hơn cho các ứng dụng tập trung vào việc phân tích dữ liệu đầu vào, xác định các tính năng hoặc đưa ra dự đoán dựa trên các mẫu đã học – thay vì tạo ra đầu ra hoàn toàn mới. Các công cụ như Bộ công cụ học máy, LiteRT và MediaPipe của Google cung cấp những chức năng mạnh mẽ phù hợp với các trường hợp sử dụng không mang tính tạo sinh này, đặc biệt là trong môi trường điện toán di động và điện toán biên.
Bắt đầu tích hợp học máy bằng Bộ công cụ học máy
Bộ công cụ học máy cung cấp các giải pháp sẵn sàng sản xuất, được tối ưu hoá cho thiết bị di động cho các nhiệm vụ học máy phổ biến mà không yêu cầu kiến thức chuyên môn về học máy. SDK di động dễ sử dụng này mang chuyên môn về học máy của Google đến thẳng các ứng dụng Android và iOS của bạn, cho phép bạn tập trung vào việc phát triển tính năng thay vì huấn luyện và tối ưu hoá mô hình. Bộ công cụ học máy cung cấp các API được tạo sẵn và các mô hình sẵn sàng sử dụng cho các tính năng như quét mã vạch, nhận dạng văn bản (OCR), phát hiện khuôn mặt, gắn nhãn hình ảnh, phát hiện và theo dõi vật thể, nhận dạng ngôn ngữ và trả lời thông minh.
Các mô hình này thường được tối ưu hoá để thực thi trên thiết bị, đảm bảo độ trễ thấp, chức năng ngoại tuyến và tăng cường quyền riêng tư của người dùng vì dữ liệu thường vẫn còn trên thiết bị. Chọn Bộ công cụ học máy để nhanh chóng thêm các tính năng học máy đã được thiết lập vào ứng dụng di động mà không cần huấn luyện mô hình hoặc yêu cầu đầu ra tạo sinh. Đây là lựa chọn lý tưởng để nâng cao hiệu quả cho các ứng dụng có chức năng "thông minh" bằng cách sử dụng các mô hình được tối ưu hoá của Google hoặc bằng cách triển khai các mô hình TensorFlow Lite tuỳ chỉnh.
Hãy bắt đầu bằng cách tham khảo hướng dẫn và tài liệu toàn diện của chúng tôi trên trang web dành cho nhà phát triển Bộ công cụ học máy.
Triển khai mô hình học máy tuỳ chỉnh bằng LiteRT
Để kiểm soát tốt hơn hoặc triển khai các mô hình học máy của riêng bạn, hãy sử dụng một ngăn xếp học máy tuỳ chỉnh được xây dựng trên LiteRT và Dịch vụ Google Play. Ngăn xếp này cung cấp những yếu tố cần thiết để triển khai các tính năng ML hiệu suất cao. LiteRT là một bộ công cụ được tối ưu hoá để chạy các mô hình TensorFlow một cách hiệu quả trên các thiết bị di động, thiết bị nhúng và thiết bị biên có tài nguyên hạn chế, giúp bạn có thể chạy các mô hình nhỏ hơn và nhanh hơn đáng kể, đồng thời tiêu thụ ít bộ nhớ, điện năng và bộ nhớ hơn. Thời gian chạy LiteRT được tối ưu hoá cao cho nhiều bộ tăng tốc phần cứng (GPU, DSP, NPU) trên các thiết bị biên, cho phép suy luận có độ trễ thấp.
Chọn LiteRT khi bạn cần triển khai hiệu quả các mô hình học máy đã được huấn luyện (thường là để phân loại, hồi quy hoặc phát hiện) trên các thiết bị có công suất tính toán hoặc thời lượng pin hạn chế, chẳng hạn như điện thoại thông minh, thiết bị IoT hoặc vi điều khiển. Đây là giải pháp được ưu tiên để triển khai các mô hình dự đoán tuỳ chỉnh hoặc tiêu chuẩn ở rìa mạng, nơi tốc độ và việc tiết kiệm tài nguyên là tối quan trọng.
Tìm hiểu thêm về việc triển khai ML bằng LiteRT.
Tích hợp tính năng nhận dạng theo thời gian thực vào ứng dụng bằng MediaPipe
MediaPipe cung cấp các giải pháp học máy nguồn mở, nhiều nền tảng và có thể tuỳ chỉnh, được thiết kế cho nội dung nghe nhìn trực tiếp và phát trực tuyến. Tận dụng các công cụ được tối ưu hoá, dựng sẵn cho các tác vụ phức tạp như theo dõi cử động của tay, ước tính tư thế, phát hiện lưới khuôn mặt và phát hiện vật thể, tất cả đều cho phép tương tác theo thời gian thực với hiệu suất cao ngay cả trên thiết bị di động.
Các quy trình dựa trên biểu đồ của MediaPipe có khả năng tuỳ chỉnh cao, cho phép bạn điều chỉnh các giải pháp cho ứng dụng Android, iOS, web, máy tính và ứng dụng phụ trợ. Chọn MediaPipe khi ứng dụng của bạn cần hiểu và phản ứng ngay lập tức với dữ liệu cảm biến trực tiếp, đặc biệt là luồng video, cho các trường hợp sử dụng như nhận dạng cử chỉ, hiệu ứng thực tế tăng cường, theo dõi thể dục hoặc điều khiển hình đại diện – tất cả đều tập trung vào việc phân tích và diễn giải dữ liệu đầu vào.
Khám phá các giải pháp và bắt đầu xây dựng bằng MediaPipe.
Tích hợp ứng dụng của bạn với trợ lý trên thiết bị
Mặc dù việc tích hợp AI truyền thống tập trung vào việc "đưa AI vào ứng dụng của bạn", nhưng bạn cũng có thể "đưa ứng dụng của bạn vào AI". Bằng cách đóng góp chức năng của ứng dụng cho các tính năng AI của hệ thống, bạn cho phép các trợ lý ở cấp hệ thống (chẳng hạn như Gemini) tự động khám phá và gọi các chức năng của ứng dụng. AppFunctions là cách chính để đạt được việc tích hợp này, cho phép ứng dụng của bạn trở thành một thành phần trong hệ sinh thái AI Android rộng lớn hơn.
Chọn một phương pháp tiếp cận
Khi kết hợp AI để cải thiện ứng dụng Android, bạn nên cân nhắc 3 phương pháp chính: thực hiện quy trình xử lý trên thiết bị, tận dụng các mô hình dựa trên đám mây hoặc thêm chức năng của ứng dụng vào AI ở cấp hệ thống. Các công cụ như ML Kit, Gemini Nano và LiteRT hỗ trợ các chức năng trên thiết bị, trong khi các API đám mây của Gemini với Firebase AI Logic cung cấp khả năng xử lý mạnh mẽ dựa trên đám mây. AppFunctions đại diện cho một đường dẫn thứ ba, cho phép bạn "đưa ứng dụng của mình vào AI" bằng cách cung cấp các tính năng của ứng dụng cho hệ thống.
Hãy cân nhắc những yếu tố sau khi chọn phương pháp:
| Thừa số | Giải pháp trên thiết bị | Giải pháp đám mây |
|---|---|---|
| Khả năng kết nối và hoạt động khi không có mạng | Lý tưởng để sử dụng ngoại tuyến; hoạt động mà không cần kết nối mạng. | Cần có kết nối mạng để giao tiếp với các máy chủ từ xa. |
| Quyền riêng tư đối với dữ liệu | Xử lý và lưu trữ dữ liệu nhạy cảm ngay trên thiết bị. | Dữ liệu được truyền đến đám mây, đòi hỏi phải tin tưởng vào tính bảo mật của nhà cung cấp. |
| Tiềm năng được khám phá và phạm vi tiếp cận | Tính năng tích hợp trực tiếp với hệ điều hành (AppFunctions) cho phép các trợ lý khám phá các tính năng. | Việc khám phá thường chỉ giới hạn ở giao diện người dùng nội bộ của ứng dụng hoặc các chế độ tích hợp API cụ thể. |
| Các chức năng của mô hình | Được tối ưu hoá cho độ trễ thấp và các tác vụ cụ thể, ít chuyên sâu. | Các mô hình mạnh mẽ có khả năng xử lý độ phức tạp cao và lượng dữ liệu đầu vào lớn. |
| Các yếu tố cần cân nhắc về chi phí | Không tính phí trực tiếp theo mỗi lần sử dụng; sử dụng phần cứng hiện có của thiết bị. | Thường liên quan đến giá dựa trên mức sử dụng hoặc chi phí thuê bao liên tục. |
| Tài nguyên thiết bị | Sử dụng bộ nhớ cục bộ, RAM và thời lượng pin. | Tác động tối thiểu đến thiết bị cục bộ; công việc nặng được chuyển sang máy chủ. |
| Tinh chỉnh | Tính linh hoạt bị hạn chế; bị giới hạn bởi các chức năng phần cứng tại địa phương. | Linh hoạt hơn cho việc tuỳ chỉnh mở rộng và điều chỉnh quy mô lớn. |
| Tính nhất quán trên nhiều nền tảng | Phạm vi cung cấp có thể khác nhau tuỳ thuộc vào hệ điều hành và khả năng hỗ trợ phần cứng. | Trải nghiệm nhất quán trên mọi nền tảng có quyền truy cập vào Internet. |
Bằng cách xem xét kỹ các yêu cầu về trường hợp sử dụng và các lựa chọn hiện có, bạn có thể tìm thấy giải pháp AI/ML phù hợp để nâng cao ứng dụng Android và mang đến trải nghiệm thông minh và phù hợp cho người dùng.
Hướng dẫn về các giải pháp AI/ML
Hướng dẫn về các giải pháp này có thể giúp bạn xác định các công cụ phù hợp dành cho nhà phát triển để tích hợp công nghệ AI/ML vào các dự án Android của mình.
Mục tiêu chính của tính năng AI là gì?
- A) Tạo nội dung mới (văn bản, nội dung mô tả hình ảnh) hoặc thực hiện quy trình xử lý văn bản đơn giản (tóm tắt, hiệu đính hoặc viết lại văn bản)? → Chuyển đến phần AI tạo sinh
- B) Phân tích dữ liệu/đầu vào hiện có để dự đoán, phân loại, phát hiện, hiểu các mẫu hoặc xử lý các luồng dữ liệu theo thời gian thực (chẳng hạn như video/âm thanh)? → Chuyển đến phần Traditional ML & Perception (Học máy truyền thống và Nhận thức)
- C) Nâng cao chức năng của ứng dụng để tích hợp với các tính năng AI của hệ thống (đưa ứng dụng của bạn vào AI)? → Chuyển đến phần Đưa ứng dụng của bạn vào AI
Học máy và nhận thức truyền thống
Bạn cần phân tích dữ liệu đầu vào, xác định các đặc điểm hoặc đưa ra dự đoán dựa trên các mẫu đã học, thay vì tạo ra dữ liệu đầu ra hoàn toàn mới.
Bạn đang thực hiện thao tác cụ thể nào?
- A) Bạn cần tích hợp nhanh các tính năng học máy phổ biến, được tạo sẵn trên thiết bị di động?
(ví dụ: quét mã vạch, nhận dạng văn bản (OCR), phát hiện khuôn mặt, gắn nhãn hình ảnh, phát hiện và theo dõi vật thể, nhận dạng ngôn ngữ, tính năng trả lời thông minh cơ bản)
- → Sử dụng: Bộ công cụ học máy (API truyền thống)
- Lý do: Dễ dàng tích hợp nhất cho các tác vụ ML trên thiết bị di động đã thiết lập, thường được tối ưu hoá để sử dụng trên thiết bị (độ trễ thấp, ngoại tuyến, quyền riêng tư).
- B) Bạn cần xử lý dữ liệu phát trực tuyến theo thời gian thực (chẳng hạn như video hoặc âm thanh) cho các tác vụ nhận thức không? (ví dụ: theo dõi cử động của tay, ước tính tư thế, lưới khuôn mặt, phát hiện và phân đoạn đối tượng theo thời gian thực trong video)
- → Sử dụng: MediaPipe
- Lý do: Khung hình chuyên dụng cho các quy trình nhận thức theo thời gian thực, hiệu suất cao trên nhiều nền tảng.
- C) Bạn cần chạy hiệu quả mô hình học máy tùy chỉnh của riêng mình (ví dụ: để phân loại, hồi quy, phát hiện) trên thiết bị, ưu tiên hiệu suất và mức sử dụng tài nguyên thấp?
- → Sử dụng: LiteRT (Thời gian chạy TensorFlow Lite)
- Lý do: Thời gian chạy được tối ưu hoá để triển khai hiệu quả các mô hình tuỳ chỉnh trên thiết bị di động và thiết bị biên (kích thước nhỏ, suy luận nhanh, tăng tốc phần cứng).
- D) Bạn cần huấn luyện mô hình học máy tuỳ chỉnh của riêng mình cho một tác vụ cụ thể?
- → Sử dụng: LiteRT (Thời gian chạy TensorFlow Lite) + hoạt động huấn luyện mô hình tuỳ chỉnh
- Lý do: Cung cấp các công cụ để huấn luyện và triển khai các mô hình tuỳ chỉnh, được tối ưu hoá cho thiết bị di động và thiết bị biên.
- E) Bạn cần phân loại nội dung nâng cao, phân tích cảm xúc hoặc dịch nhiều ngôn ngữ với sắc thái tinh tế?
- Hãy cân nhắc xem các mô hình học máy truyền thống (có thể được triển khai bằng LiteRT hoặc đám mây) có phù hợp hay không, hoặc liệu NLU nâng cao có yêu cầu các mô hình tạo sinh hay không (quay lại phần Bắt đầu, chọn A). Đối với việc phân loại, phân tích tình cảm hoặc dịch dựa trên đám mây:
- → Sử dụng: Các giải pháp dựa trên đám mây (ví dụ: Google Cloud Natural Language API, Google Cloud Translation API, có thể truy cập bằng một phần phụ trợ tuỳ chỉnh hoặc Vertex AI). (Mức độ ưu tiên thấp hơn so với các lựa chọn trên thiết bị nếu ngoại tuyến hoặc quyền riêng tư là yếu tố chính).
- Lý do: Các giải pháp đám mây cung cấp những mô hình mạnh mẽ và hỗ trợ nhiều ngôn ngữ, nhưng cần có kết nối và có thể phát sinh chi phí.
AI tạo sinh
Bạn cần tạo nội dung mới, tóm tắt, viết lại hoặc thực hiện các tác vụ tương tác hoặc hiểu biết phức tạp.
Bạn có yêu cầu AI hoạt động ngoại tuyến, cần có quyền riêng tư đối với dữ liệu tối đa (giữ dữ liệu người dùng trên thiết bị) hoặc muốn tránh chi phí suy luận trên đám mây không?
- A) Có, chế độ ngoại tuyến, quyền riêng tư tối đa hoặc không tốn chi phí trên đám mây là điều quan trọng.
- → Chuyển đến phần AI tạo sinh trên thiết bị
- B) Không, có kết nối và kết nối này chấp nhận được, các chức năng và khả năng mở rộng trên đám mây quan trọng hơn hoặc các tính năng cụ thể yêu cầu có đám mây.
- → Chuyển đến phần AI tạo sinh trên đám mây
AI tạo sinh trên thiết bị (Sử dụng Gemini Nano)
Lưu ý: Cần có thiết bị Android tương thích, khả năng hỗ trợ iOS bị hạn chế, các mô hình có hiệu suất thấp hơn so với các mô hình tương đương trên đám mây.
Với Prompt API của ML Kit, bạn có thể gửi các yêu cầu bằng ngôn ngữ tự nhiên chỉ bằng văn bản hoặc bằng cả văn bản và hình ảnh cho nhiều trường hợp sử dụng, chẳng hạn như hiểu hình ảnh, dịch ngắn và tóm tắt có hướng dẫn. Nếu các trường hợp sử dụng của bạn có thể đáp ứng những giới hạn về mã thông báo này, thì API GenAI của Bộ công cụ học máy là lựa chọn tốt nhất cho AI tạo sinh trên thiết bị. Bộ công cụ học máy cũng cung cấp các API tinh giản cho những nhiệm vụ phổ biến như tóm tắt và trả lời thông minh.
- → Sử dụng: API GenAI của Bộ công cụ học máy (dựa trên Gemini Nano)
- Lý do: Cách dễ nhất để tích hợp các tác vụ AI tạo sinh trên thiết bị bằng câu lệnh sử dụng ngôn ngữ tự nhiên, giải pháp ưu tiên cao nhất trên thiết bị.
AI tạo sinh trên đám mây
Sử dụng các mô hình mạnh mẽ hơn, cần có kết nối, thường liên quan đến chi phí suy luận, có phạm vi tiếp cận thiết bị rộng hơn và dễ dàng đảm bảo tính nhất quán trên nhiều nền tảng (Android và iOS).
Mức độ ưu tiên của bạn là gì: Dễ dàng tích hợp trong Firebase HAY có tính linh hoạt/khả năng kiểm soát tối đa?
- A) Bạn muốn tích hợp dễ dàng hơn, có trải nghiệm API được quản lý và có khả năng đang sử dụng Firebase?
- → Sử dụng: SDK Firebase AI Logic → Chuyển đến Firebase AI Logic
- B) Bạn cần có tính linh hoạt tối đa, quyền truy cập vào nhiều mô hình nhất (bao gồm cả mô hình của bên thứ ba/tuỳ chỉnh), khả năng tinh chỉnh nâng cao và sẵn sàng quản lý quy trình tích hợp phụ trợ của riêng mình (phức tạp hơn)?
- → Sử dụng: Gemini API với một Phụ trợ đám mây tuỳ chỉnh (sử dụng Google Cloud Platform)
- Lý do: Cung cấp khả năng kiểm soát cao nhất, quyền truy cập vào mô hình rộng nhất và các lựa chọn huấn luyện tuỳ chỉnh nhưng đòi hỏi nhiều nỗ lực phát triển phụ trợ. Phù hợp với những nhu cầu phức tạp, quy mô lớn hoặc được tuỳ chỉnh cao.
(Bạn chọn SDK Firebase AI Logic) Bạn cần loại tác vụ tạo sinh và hồ sơ hiệu suất nào?
- A) Bạn cần cân bằng giữa hiệu suất và chi phí, phù hợp với các ứng dụng tạo văn bản, tóm tắt hoặc trò chuyện chung mà tốc độ là yếu tố quan trọng?
- → Sử dụng: SDK Firebase AI Logic với Gemini Flash
- Lý do: Được tối ưu hoá về tốc độ và hiệu quả trong môi trường do Vertex AI quản lý.
- B) Bạn cần chất lượng và khả năng cao hơn để tạo văn bản phức tạp, suy luận, NLU nâng cao hoặc làm theo hướng dẫn?
- → Sử dụng: SDK Firebase AI Logic với Gemini Pro
- Lý do: Mô hình văn bản mạnh mẽ hơn cho các tác vụ đòi hỏi nhiều tài nguyên, được truy cập thông qua Firebase.
- C) Bạn cần tạo hình ảnh tinh vi hoặc hiểu/thao tác hình ảnh nâng cao dựa trên câu lệnh bằng văn bản?
- → Sử dụng: SDK Firebase AI Logic với Imagen 3
- Lý do: Mô hình tạo hình ảnh hiện đại được truy cập bằng môi trường Firebase được quản lý.
AppFunctions
Bạn cần nâng cao chức năng của ứng dụng để tích hợp với các tính năng AI của hệ thống (đưa ứng dụng của bạn vào AI).
- → Sử dụng: AppFunctions
- Lý do: Cho phép các tính năng AI của hệ thống (chẳng hạn như Trợ lý) khám phá và gọi các chức năng của ứng dụng.