Tìm giải pháp AI/ML phù hợp cho ứng dụng của bạn

Hướng dẫn này được thiết kế để giúp bạn tích hợp các giải pháp trí tuệ nhân tạo tạo sinh và học máy (AI/ML) của Google vào ứng dụng của mình. Tài liệu này cung cấp hướng dẫn để giúp bạn tìm hiểu các giải pháp trí tuệ nhân tạo và học máy hiện có, đồng thời chọn giải pháp phù hợp nhất với nhu cầu của bạn. Mục tiêu của tài liệu này là giúp bạn xác định công cụ nào nên sử dụng và lý do sử dụng, bằng cách tập trung vào nhu cầu và trường hợp sử dụng của bạn.

Để hỗ trợ bạn chọn giải pháp AI/học máy phù hợp nhất với các yêu cầu cụ thể của mình, tài liệu này có hướng dẫn về giải pháp. Bằng cách trả lời một loạt câu hỏi về mục tiêu và các quy tắc ràng buộc của dự án, hướng dẫn này sẽ hướng bạn đến các công cụ và công nghệ phù hợp nhất.

Hướng dẫn này giúp bạn chọn giải pháp AI phù hợp nhất cho ứng dụng của mình. Hãy cân nhắc các yếu tố sau: loại dữ liệu (văn bản, hình ảnh, âm thanh, video), độ phức tạp của tác vụ (tóm tắt đơn giản đến các tác vụ phức tạp cần kiến thức chuyên môn) và kích thước dữ liệu (dữ liệu đầu vào ngắn so với tài liệu lớn). Điều này sẽ giúp bạn quyết định giữa việc sử dụng Gemini Nano trên thiết bị hoặc AI dựa trên đám mây của Firebase (Gemini Flash, Gemini Pro hoặc Imagen).

Sơ đồ quy trình quyết định cho các trường hợp sử dụng công nghệ AI tạo sinh. Các tiêu chí bao gồm Phương thức (văn bản, hình ảnh so với âm thanh, video, tạo hình ảnh), Mức độ phức tạp (tóm tắt, viết lại so với kiến thức chuyên môn) và Cửa sổ ngữ cảnh (dữ liệu đầu vào/đầu ra ngắn so với tài liệu/phương tiện mở rộng), dẫn đến GenAI trên thiết bị (Gemini Nano) hoặc Logic AI Firebase (Gemini Flash, Pro, Imagen).
Hình 1: Hình minh hoạ này thể hiện hướng dẫn giải pháp cấp cao để giúp bạn tìm giải pháp AI/ML phù hợp cho ứng dụng Android. Để biết thông tin chi tiết hơn về các lựa chọn AI và ML, hãy tham khảo hướng dẫn giải pháp có trong phần sau của tài liệu này.

Khai thác sức mạnh của tính năng suy luận trên thiết bị

Khi thêm các tính năng AI và ML vào ứng dụng Android, bạn có thể chọn nhiều cách để phân phối các tính năng đó – trên thiết bị hoặc sử dụng đám mây.

Các giải pháp trên thiết bị như Gemini Nano mang lại kết quả mà không tốn thêm chi phí, tăng cường quyền riêng tư của người dùng và cung cấp chức năng ngoại tuyến đáng tin cậy vì dữ liệu đầu vào được xử lý cục bộ. Những lợi ích này có thể rất quan trọng đối với một số trường hợp sử dụng, chẳng hạn như tóm tắt tin nhắn, ưu tiên giải pháp trên thiết bị khi chọn giải pháp phù hợp.

Gemini Nano cho phép bạn chạy quy trình suy luận trực tiếp trên thiết bị chạy Android. Nếu bạn đang làm việc với văn bản hoặc hình ảnh, hãy bắt đầu với API GenAI của Bộ công cụ học máy để có các giải pháp ngay lập tức. API GenAI của Bộ công cụ học máy được Gemini Nano hỗ trợ và tinh chỉnh cho các tác vụ cụ thể trên thiết bị. API GenAI của Bộ công cụ học máy là một lộ trình lý tưởng để phát hành công khai ứng dụng của bạn nhờ giao diện cấp cao hơn và khả năng mở rộng. Các API này cho phép bạn triển khai các trường hợp sử dụng để tóm tắt, hiệu đínhviết lại văn bản, cũng như tạo nội dung mô tả hình ảnh.

Để mở rộng các trường hợp sử dụng cơ bản do API GenAI của Bộ công cụ máy học cung cấp, hãy cân nhắc Quyền truy cập thử nghiệm Gemini Nano. Quyền truy cập thử nghiệm Gemini Nano giúp bạn có quyền truy cập trực tiếp hơn vào lời nhắc tuỳ chỉnh bằng Gemini Nano.

Đối với các tác vụ học máy truyền thống, bạn có thể linh hoạt triển khai các mô hình tuỳ chỉnh của riêng mình. Chúng tôi cung cấp các công cụ mạnh mẽ như Bộ công cụ học máy, MediaPipe, LiteRT và các tính năng phân phối Google Play để đơn giản hoá quy trình phát triển của bạn.

Đối với các ứng dụng yêu cầu giải pháp chuyên biệt, bạn có thể sử dụng mô hình tuỳ chỉnh của riêng mình, chẳng hạn như Gemma hoặc một mô hình khác được điều chỉnh cho phù hợp với trường hợp sử dụng cụ thể của bạn. Chạy mô hình trực tiếp trên thiết bị của người dùng bằng LiteRT. LiteRT cung cấp cấu trúc mô hình được thiết kế sẵn để tối ưu hoá hiệu suất.

Bạn cũng có thể cân nhắc xây dựng một giải pháp kết hợp bằng cách tận dụng cả mô hình trên thiết bị và mô hình trên đám mây.

Các ứng dụng di động thường sử dụng mô hình cục bộ cho dữ liệu văn bản nhỏ, chẳng hạn như cuộc trò chuyện hoặc bài viết trên blog. Tuy nhiên, đối với các nguồn dữ liệu lớn hơn (như PDF) hoặc khi cần thêm kiến thức, bạn có thể cần đến một giải pháp dựa trên đám mây có các mô hình Gemini mạnh mẽ hơn.

Tích hợp các mô hình Gemini nâng cao

Nhà phát triển Android có thể tích hợp các tính năng AI tạo sinh nâng cao của Google, bao gồm cả các mô hình Gemini Pro, Gemini Flash và Imagen mạnh mẽ, vào ứng dụng của họ bằng cách sử dụng SDK Logic AI của Firebase. SDK này được thiết kế cho nhu cầu dữ liệu lớn hơn, đồng thời cung cấp khả năng mở rộng và thích ứng bằng cách cho phép truy cập vào các mô hình AI đa phương thức, hiệu suất cao này.

Với SDK Logic AI của Firebase, nhà phát triển có thể thực hiện các lệnh gọi phía máy khách đến các mô hình AI của Google mà không tốn nhiều công sức. Các mô hình này, chẳng hạn như Gemini Pro và Gemini Flash, chạy suy luận trên đám mây và hỗ trợ các ứng dụng Android xử lý nhiều loại dữ liệu đầu vào, bao gồm hình ảnh, âm thanh, video và văn bản. Gemini Pro xuất sắc trong việc suy luận về các vấn đề phức tạp và phân tích dữ liệu mở rộng, trong khi dòng Gemini Flash mang lại tốc độ vượt trội và cửa sổ ngữ cảnh đủ lớn cho hầu hết các tác vụ.

Trường hợp nên sử dụng công nghệ học máy truyền thống

Mặc dù AI tạo sinh rất hữu ích trong việc tạo và chỉnh sửa nội dung như văn bản, hình ảnh và mã, nhưng nhiều vấn đề trong thực tế sẽ được giải quyết hiệu quả hơn bằng các kỹ thuật Học máy (ML) truyền thống. Các phương pháp đã thiết lập này vượt trội trong các nhiệm vụ liên quan đến việc dự đoán, phân loại, phát hiện và hiểu các mẫu trong dữ liệu hiện có, thường có hiệu quả cao hơn, chi phí tính toán thấp hơn và triển khai đơn giản hơn so với các mô hình tạo sinh.

Các khung học máy truyền thống cung cấp các giải pháp mạnh mẽ, được tối ưu hoá và thường thực tế hơn cho các ứng dụng tập trung vào việc phân tích dữ liệu đầu vào, xác định các tính năng hoặc đưa ra dự đoán dựa trên các mẫu đã học được, thay vì tạo ra đầu ra hoàn toàn mới. Các công cụ như Bộ công cụ học máy, LiteRT và MediaPipe của Google cung cấp các tính năng mạnh mẽ được điều chỉnh cho các trường hợp sử dụng không tạo sinh này, đặc biệt là trong môi trường điện toán di động và điện toán biên.

Bắt đầu tích hợp công nghệ học máy bằng Bộ công cụ học máy

Bộ công cụ học máy cung cấp các giải pháp sẵn sàng cho sản xuất, được tối ưu hoá cho thiết bị di động cho các tác vụ học máy phổ biến mà không cần kiến thức chuyên môn về học máy trước đó. SDK di động dễ sử dụng này mang kiến thức chuyên môn về học máy của Google trực tiếp đến các ứng dụng Android và iOS của bạn, cho phép bạn tập trung vào việc phát triển tính năng thay vì huấn luyện và tối ưu hoá mô hình. Bộ công cụ học máy cung cấp các API tạo sẵn và mô hình có thể sử dụng ngay cho các tính năng như quét mã vạch, nhận dạng văn bản (OCR), phát hiện khuôn mặt, gắn nhãn hình ảnh, phát hiện và theo dõi đối tượng, nhận dạng ngôn ngữ và trả lời thông minh.

Các mô hình này thường được tối ưu hoá để thực thi trên thiết bị, đảm bảo độ trễ thấp, chức năng ngoại tuyến và tăng cường quyền riêng tư của người dùng vì dữ liệu thường vẫn nằm trên thiết bị. Chọn Bộ công cụ học máy để nhanh chóng thêm các tính năng học máy đã thiết lập vào ứng dụng di động mà không cần huấn luyện mô hình hoặc yêu cầu đầu ra tạo sinh. Đây là cách lý tưởng để nâng cao hiệu quả các ứng dụng có chức năng "thông minh" bằng cách sử dụng các mô hình được tối ưu hoá của Google hoặc triển khai các mô hình TensorFlow Lite tuỳ chỉnh.

Hãy bắt đầu với hướng dẫn và tài liệu toàn diện của chúng tôi tại trang web dành cho nhà phát triển Bộ công cụ học máy.

Triển khai công nghệ học máy tuỳ chỉnh bằng LiteRT

Để có quyền kiểm soát cao hơn hoặc triển khai các mô hình học máy của riêng bạn, hãy sử dụng ngăn xếp học máy tuỳ chỉnh được xây dựng trên LiteRT và các dịch vụ của Google Play. Ngăn xếp này cung cấp các thông tin cần thiết để triển khai các tính năng học máy hiệu suất cao. LiteRT là một bộ công cụ được tối ưu hoá để chạy các mô hình TensorFlow một cách hiệu quả trên các thiết bị di động, nhúng và thiết bị cạnh bị hạn chế về tài nguyên, cho phép bạn chạy các mô hình nhỏ hơn và nhanh hơn đáng kể, tiêu thụ ít bộ nhớ, điện năng và dung lượng lưu trữ hơn. Thời gian chạy LiteRT được tối ưu hoá cao cho nhiều trình tăng tốc phần cứng (GPU, DSP, NPU) trên các thiết bị cạnh, cho phép suy luận có độ trễ thấp.

Chọn LiteRT khi bạn cần triển khai hiệu quả các mô hình học máy đã huấn luyện (thường là để phân loại, hồi quy hoặc phát hiện) trên các thiết bị có công suất tính toán hoặc thời lượng pin hạn chế, chẳng hạn như điện thoại thông minh, thiết bị IoT hoặc bộ điều khiển vi mô. Đây là giải pháp ưu tiên để triển khai các mô hình dự đoán tuỳ chỉnh hoặc tiêu chuẩn ở cạnh, nơi tốc độ và tiết kiệm tài nguyên là yếu tố quan trọng hàng đầu.

Tìm hiểu thêm về cách triển khai công nghệ học máy bằng LiteRT.

Tích hợp tính năng nhận biết theo thời gian thực vào ứng dụng của bạn bằng MediaPipe

MediaPipe cung cấp các giải pháp học máy nguồn mở, đa nền tảng và có thể tuỳ chỉnh, được thiết kế cho nội dung phát trực tiếp và nội dung đa phương tiện phát trực tuyến. Tận dụng các công cụ được tối ưu hoá và tạo sẵn cho các tác vụ phức tạp như theo dõi chuyển động tay, ước tính tư thế, phát hiện lưới khuôn mặt và phát hiện đối tượng. Tất cả đều cho phép tương tác theo thời gian thực, hiệu suất cao ngay cả trên thiết bị di động.

Quy trình dựa trên biểu đồ của MediaPipe có thể tuỳ chỉnh cao, cho phép bạn điều chỉnh các giải pháp cho ứng dụng Android, iOS, web, máy tính và phần phụ trợ. Chọn MediaPipe khi ứng dụng của bạn cần hiểu và phản ứng tức thì với dữ liệu cảm biến trực tiếp, đặc biệt là luồng video, cho các trường hợp sử dụng như nhận dạng cử chỉ, hiệu ứng AR, theo dõi hoạt động thể chất hoặc điều khiển hình đại diện – tất cả đều tập trung vào việc phân tích và diễn giải dữ liệu đầu vào.

Khám phá các giải pháp và bắt đầu xây dựng bằng MediaPipe.

Chọn một phương pháp: Trên thiết bị hoặc trên đám mây

Khi tích hợp các tính năng AI/ML vào ứng dụng Android, một quyết định quan trọng ban đầu là có nên xử lý trực tiếp trên thiết bị của người dùng hay trên đám mây. Các công cụ như Bộ công cụ học máy, Gemini Nano và TensorFlow Lite hỗ trợ các tính năng trên thiết bị, trong khi các API đám mây Gemini có Logic AI của Firebase có thể cung cấp khả năng xử lý mạnh mẽ trên đám mây. Việc đưa ra lựa chọn phù hợp phụ thuộc vào nhiều yếu tố cụ thể cho trường hợp sử dụng và nhu cầu của người dùng.

Hãy cân nhắc các khía cạnh sau đây để đưa ra quyết định:

  • Khả năng kết nối và chức năng ngoại tuyến: Nếu ứng dụng của bạn cần hoạt động một cách đáng tin cậy mà không cần kết nối Internet, thì các giải pháp trên thiết bị như Gemini Nano là lựa chọn lý tưởng. Theo bản chất, tính năng xử lý trên đám mây yêu cầu quyền truy cập mạng.
  • Quyền riêng tư của dữ liệu: Đối với các trường hợp sử dụng mà dữ liệu người dùng phải vẫn nằm trên thiết bị vì lý do quyền riêng tư, thì việc xử lý trên thiết bị mang lại một lợi thế rõ ràng bằng cách lưu giữ thông tin nhạy cảm trên thiết bị.
  • Khả năng của mô hình và độ phức tạp của nhiệm vụ: Các mô hình dựa trên đám mây thường lớn hơn, mạnh mẽ hơn và được cập nhật thường xuyên hơn đáng kể, nhờ đó phù hợp với các nhiệm vụ AI rất phức tạp hoặc khi xử lý các dữ liệu đầu vào lớn hơn, trong đó chất lượng đầu ra cao hơn và khả năng mở rộng là yếu tố quan trọng hàng đầu. Các mô hình trên thiết bị có thể xử lý tốt các tác vụ đơn giản hơn.
  • Những điều cần cân nhắc về chi phí: Các API trên đám mây thường có mức giá dựa trên mức sử dụng, nghĩa là chi phí có thể tăng theo số lượng suy luận hoặc lượng dữ liệu được xử lý. Mặc dù thường không phải trả phí trực tiếp cho mỗi lần sử dụng, nhưng hoạt động suy luận trên thiết bị sẽ phát sinh chi phí phát triển và có thể ảnh hưởng đến các tài nguyên của thiết bị như thời lượng pin và hiệu suất tổng thể.
  • Tài nguyên thiết bị: Mô hình trên thiết bị tiêu tốn dung lượng bộ nhớ trên thiết bị của người dùng. Bạn cũng cần lưu ý đến khả năng tương thích của thiết bị với các mô hình trên thiết bị cụ thể, chẳng hạn như Gemini Nano, để đảm bảo đối tượng mục tiêu của bạn có thể sử dụng các tính năng đó.
  • Điều chỉnh và tuỳ chỉnh: Nếu bạn cần điều chỉnh các mô hình cho trường hợp sử dụng cụ thể, thì các giải pháp dựa trên đám mây thường mang lại tính linh hoạt cao hơn và nhiều tuỳ chọn tuỳ chỉnh hơn.
  • Tính nhất quán trên nhiều nền tảng: Nếu tính nhất quán của các tính năng AI trên nhiều nền tảng, bao gồm cả iOS, là yếu tố quan trọng, hãy lưu ý rằng một số giải pháp trên thiết bị, chẳng hạn như Gemini Nano, có thể chưa có trên tất cả hệ điều hành.

Bằng cách cân nhắc kỹ lưỡng các yêu cầu về trường hợp sử dụng và các tuỳ chọn có sẵn, bạn có thể tìm thấy giải pháp AI/ML hoàn hảo để nâng cao ứng dụng Android và mang lại trải nghiệm thông minh và được cá nhân hoá cho người dùng.


Hướng dẫn về các giải pháp AI/ML

Hướng dẫn giải pháp này có thể giúp bạn xác định các công cụ dành cho nhà phát triển phù hợp để tích hợp công nghệ AI/ML vào các dự án Android của mình.

Mục tiêu chính của tính năng AI là gì?

  • A) Tạo nội dung mới (văn bản, nội dung mô tả hình ảnh) hoặc thực hiện xử lý văn bản đơn giản (tóm tắt, đọc lại hoặc viết lại văn bản)? → Chuyển đến AI tạo sinh
  • B) Phân tích dữ liệu/dữ liệu đầu vào hiện có để dự đoán, phân loại, phát hiện, hiểu các mẫu hoặc xử lý luồng theo thời gian thực (chẳng hạn như video/âm thanh)? → Chuyển đến phần Trí tuệ nhân tạo truyền thống và nhận thức

Học máy truyền thống và nhận thức

Bạn cần phân tích dữ liệu đầu vào, xác định các đặc điểm hoặc đưa ra dự đoán dựa trên các mẫu đã học, thay vì tạo ra kết quả hoàn toàn mới.

Bạn đang thực hiện nhiệm vụ cụ thể nào?

  • Trả lời) Bạn cần tích hợp nhanh các tính năng học máy phổ biến, tạo sẵn cho thiết bị di động? (ví dụ: quét mã vạch, nhận dạng văn bản (OCR), phát hiện khuôn mặt, gắn nhãn hình ảnh, phát hiện và theo dõi đối tượng, mã nhận dạng ngôn ngữ, tính năng trả lời thông minh cơ bản)
    • → Sử dụng: Bộ công cụ học máy (API truyền thống)
    • Lý do: Cách tích hợp dễ dàng nhất cho các tác vụ học máy trên thiết bị di động đã thiết lập, thường được tối ưu hoá để sử dụng trên thiết bị (độ trễ thấp, ngoại tuyến, quyền riêng tư).
  • B) Có cần xử lý dữ liệu phát trực tuyến theo thời gian thực (chẳng hạn như video hoặc âm thanh) cho các tác vụ nhận thức không? (ví dụ: theo dõi chuyển động tay, ước tính tư thế, lưới khuôn mặt, phát hiện và phân đoạn đối tượng theo thời gian thực trong video)
    • → Sử dụng: MediaPipe
    • Lý do: Khung chuyên biệt cho các quy trình nhận thức theo thời gian thực, hiệu suất cao trên nhiều nền tảng.
  • C) Bạn cần chạy hiệu quả mô hình máy học được huấn luyện tuỳ chỉnh của riêng mình (ví dụ: để phân loại, hồi quy, phát hiện) trên thiết bị, ưu tiên hiệu suất và mức sử dụng tài nguyên thấp?
    • → Sử dụng: LiteRT (TensorFlow Lite Runtime)
    • Lý do: Thời gian chạy được tối ưu hoá để triển khai các mô hình tuỳ chỉnh một cách hiệu quả trên thiết bị di động và thiết bị cạnh (kích thước nhỏ, suy luận nhanh, tăng tốc phần cứng).
  • D) Bạn cần huấn luyện mô hình máy học tuỳ chỉnh của riêng mình cho một nhiệm vụ cụ thể?
    • → Sử dụng: LiteRT (TensorFlow Lite Runtime) + huấn luyện mô hình tuỳ chỉnh
    • Lý do: Cung cấp các công cụ để đào tạo và triển khai mô hình tuỳ chỉnh, được tối ưu hoá cho thiết bị di động và thiết bị cạnh.
  • E) Bạn cần phân loại nội dung nâng cao, phân tích cảm xúc hoặc dịch nhiều ngôn ngữ có sắc thái cao?
    • Hãy cân nhắc xem các mô hình học máy truyền thống (có thể được triển khai bằng LiteRT hoặc đám mây) có phù hợp hay không hoặc liệu NLU nâng cao có yêu cầu mô hình tạo sinh hay không (quay lại Bắt đầu, chọn A). Đối với tính năng phân loại, cảm xúc hoặc dịch trên đám mây:
    • → Sử dụng: Giải pháp dựa trên đám mây (ví dụ: API Ngôn ngữ tự nhiên của Google Cloud, API Dịch của Google Cloud, có thể được truy cập bằng cách sử dụng phần phụ trợ tuỳ chỉnh hoặc Vertex AI). (Mức độ ưu tiên thấp hơn các tuỳ chọn trên thiết bị nếu chế độ ngoại tuyến hoặc quyền riêng tư là yếu tố chính).
    • Lý do: Giải pháp đám mây cung cấp các mô hình mạnh mẽ và hỗ trợ nhiều ngôn ngữ, nhưng cần có kết nối và có thể phát sinh chi phí.

AI tạo sinh

Bạn cần tạo nội dung mới, tóm tắt, viết lại hoặc thực hiện các nhiệm vụ tương tác hoặc hiểu biết phức tạp.

Bạn có yêu cầu AI hoạt động ngoại tuyến, cần quyền riêng tư tối đa đối với dữ liệu (giữ dữ liệu người dùng trên thiết bị) hay muốn tránh chi phí suy luận trên đám mây không?

  • Đáp: Có, chế độ ngoại tuyến, quyền riêng tư tối đa hoặc không mất phí khi sử dụng trên đám mây là yếu tố quan trọng.
  • B) Không, có kết nối và chấp nhận được, khả năng mở rộng và tính năng đám mây quan trọng hơn hoặc có các tính năng cụ thể yêu cầu đám mây.

AI tạo sinh trên thiết bị (Sử dụng Gemini Nano)

Thận trọng: Yêu cầu thiết bị Android tương thích, hỗ trợ iOS có giới hạn, giới hạn mã thông báo cụ thể (lời nhắc 1024, ngữ cảnh 4096), các mô hình kém mạnh hơn so với các mô hình trên đám mây.

Trường hợp sử dụng của bạn có chính xác khớp với các tác vụ được đơn giản hoá mà API GenAI của Bộ công cụ học máy cung cấp không? (Tóm tắt văn bản, Chấm lỗi văn bản, Viết lại văn bản, Tạo nội dung mô tả hình ảnh) VÀ liệu giới hạn mã thông báo có đủ không?

  • A) Có:
    • → Sử dụng: API GenAI của Bộ công cụ học máy (dựa trên Gemini Nano)
    • Lý do: Cách dễ dàng nhất để tích hợp các tác vụ tạo sinh cụ thể, phổ biến trên thiết bị, giải pháp ưu tiên cao nhất trên thiết bị.
  • B) Không (Bạn cần lời nhắc hoặc tác vụ linh hoạt hơn ngoài các API GenAI của Bộ công cụ học máy cụ thể, nhưng vẫn muốn thực thi trên thiết bị trong phạm vi chức năng của Nano):
    • → Sử dụng: Quyền truy cập thử nghiệm Gemini Nano
    • Lý do: Cung cấp các tính năng nhắc mở trên thiết bị cho các trường hợp sử dụng ngoài API GenAI của Bộ công cụ học máy có cấu trúc, tuân thủ các giới hạn của Nano.

AI tạo sinh trên đám mây

Sử dụng các mô hình mạnh mẽ hơn, yêu cầu kết nối, thường liên quan đến chi phí suy luận, cung cấp phạm vi tiếp cận thiết bị rộng hơn và tính nhất quán dễ dàng hơn trên nhiều nền tảng (Android và iOS).

Mục tiêu ưu tiên của bạn là gì: Dễ dàng tích hợp trong Firebase HOẶC tính linh hoạt/kiểm soát tối đa?

  • A) Bạn muốn tích hợp dễ dàng hơn, có trải nghiệm API được quản lý và có thể đã sử dụng Firebase?
  • B) Bạn cần linh hoạt tối đa, quyền truy cập vào nhiều mô hình nhất (bao gồm cả mô hình của bên thứ ba/tuỳ chỉnh), khả năng tinh chỉnh nâng cao và sẵn sàng quản lý việc tích hợp phần phụ trợ của riêng bạn (phức tạp hơn)?
    • → Sử dụng: API Gemini với phần phụ trợ đám mây tuỳ chỉnh (sử dụng Google Cloud Platform)
    • Lý do: Cung cấp nhiều quyền kiểm soát nhất, quyền truy cập rộng nhất vào mô hình và các tuỳ chọn đào tạo tuỳ chỉnh, nhưng đòi hỏi nỗ lực phát triển phần phụ trợ đáng kể. Phù hợp với nhu cầu phức tạp, quy mô lớn hoặc cần tuỳ chỉnh cao.

(Bạn đã chọn SDK Logic AI của Firebase) Bạn cần loại hồ sơ hiệu suất và tác vụ tạo sinh nào?

  • A) Bạn cần cân bằng hiệu suất và chi phí, phù hợp với các ứng dụng tạo văn bản, tóm tắt hoặc trò chuyện chung mà tốc độ là yếu tố quan trọng?
  • B) Bạn cần chất lượng và khả năng cao hơn để tạo văn bản phức tạp, suy luận, NLU nâng cao hoặc làm theo hướng dẫn?
  • C) Bạn cần tạo hình ảnh tinh vi hoặc hiểu biết hoặc thao tác nâng cao với hình ảnh dựa trên câu lệnh văn bản?