این راهنما به شما کمک میکند تا راهحلهای هوش مصنوعی مولد و یادگیری ماشینی (AI/ML) گوگل را در برنامههای خود ادغام کنید. این راهنما به شما کمک میکند تا در میان راهحلهای مختلف هوش مصنوعی و یادگیری ماشینی موجود، پیمایش کنید و راهحلی را انتخاب کنید که به بهترین وجه با نیازهای شما مطابقت داشته باشد. هدف این سند، کمک به شما در تعیین اینکه از کدام ابزار استفاده کنید و چرا، با تمرکز بر نیازها و موارد استفاده شماست.
برای کمک به شما در انتخاب مناسبترین راهکار هوش مصنوعی/یادگیری ماشین برای نیازهای خاص شما، این سند شامل یک راهنمای راهکار است . این راهنما با پاسخ به مجموعهای از سؤالات در مورد اهداف و محدودیتهای پروژه شما، شما را به سمت مناسبترین ابزارها و فناوریها هدایت میکند.
این راهنما به شما کمک میکند تا بهترین راهحل هوش مصنوعی را برای برنامه خود انتخاب کنید. این عوامل را در نظر بگیرید: نوع داده (متن، تصاویر، صدا، ویدیو)، پیچیدگی کار (خلاصهسازی ساده برای کارهای پیچیدهای که نیاز به دانش تخصصی دارند) و اندازه داده (ورودیهای کوتاه در مقابل اسناد بزرگ). این به شما کمک میکند تا بین استفاده از Gemini Nano در دستگاه خود یا هوش مصنوعی مبتنی بر ابر Firebase (Gemini Flash، Gemini Pro یا Imagen) تصمیم بگیرید.
قدرت استنتاج روی دستگاه را مهار کنید
وقتی ویژگیهای هوش مصنوعی و یادگیری ماشین را به برنامه اندروید خود اضافه میکنید، میتوانید روشهای مختلفی را برای ارائه آنها انتخاب کنید - یا روی دستگاه یا با استفاده از فضای ابری.
راهکارهای روی دستگاه مانند Gemini Nano نتایج را بدون هزینه اضافی ارائه میدهند، حریم خصوصی کاربر را بهبود میبخشند و به دلیل پردازش دادههای ورودی به صورت محلی، عملکرد آفلاین قابل اعتمادی را فراهم میکنند. این مزایا میتوانند برای موارد استفاده خاص، مانند خلاصهسازی پیام، حیاتی باشند و در انتخاب راهکارهای مناسب، اولویت را به استفاده روی دستگاه میدهند.
Gemini Nano به شما امکان میدهد استنتاج را مستقیماً روی یک دستگاه مبتنی بر اندروید اجرا کنید. اگر با متن، تصاویر یا صدا کار میکنید، برای راهحلهای آماده، با APIهای GenAI کیت ML شروع کنید. APIهای GenAI کیت ML توسط Gemini Nano پشتیبانی میشوند و برای وظایف خاص روی دستگاه تنظیم شدهاند. APIهای GenAI کیت ML به دلیل رابط کاربری سطح بالاتر و مقیاسپذیریشان، مسیری ایدهآل برای تولید برنامههای شما هستند. این APIها به شما امکان میدهند موارد استفاده را برای خلاصهسازی، ویرایش و بازنویسی متن، تولید توضیحات تصویر و انجام تشخیص گفتار پیادهسازی کنید.
برای فراتر رفتن از موارد استفاده اساسی ارائه شده توسط APIهای GenAI کیت یادگیری ماشین، Gemini Nano Experimental Access را در نظر بگیرید. Gemini Nano Experimental Access با Gemini Nano به شما دسترسی مستقیمتری به اعلانهای سفارشی میدهد.
برای وظایف سنتی یادگیری ماشین، شما انعطافپذیری لازم برای پیادهسازی مدلهای سفارشی خود را دارید. ما ابزارهای قدرتمندی مانند ML Kit ، MediaPipe ، LiteRT و ویژگیهای تحویل Google Play را برای سادهسازی فرآیند توسعه شما ارائه میدهیم.
برای کاربردهایی که به راهحلهای بسیار تخصصی نیاز دارند، میتوانید از مدل سفارشی خودتان، مانند Gemma یا مدل دیگری که متناسب با مورد استفاده خاص شما طراحی شده است، استفاده کنید. مدل خود را مستقیماً روی دستگاه کاربر با LiteRT اجرا کنید، که معماریهای مدل از پیش طراحی شده را برای عملکرد بهینه ارائه میدهد.
همچنین میتوانید با استفاده از مدلهای روی دستگاه و ابری، ساخت یک راهکار ترکیبی را در نظر بگیرید.
برنامههای تلفن همراه معمولاً از مدلهای محلی برای دادههای متنی کوچک، مانند مکالمات چت یا مقالات وبلاگ، استفاده میکنند. با این حال، برای منابع داده بزرگتر (مانند فایلهای PDF) یا زمانی که دانش بیشتری مورد نیاز است، ممکن است یک راهحل مبتنی بر ابر با مدلهای قدرتمندتر Gemini ضروری باشد.
ادغام مدلهای پیشرفته Gemini
توسعهدهندگان اندروید میتوانند قابلیتهای پیشرفته هوش مصنوعی مولد گوگل، از جمله مدلهای قدرتمند Gemini Pro، Gemini Flash و Imagen را با استفاده از Firebase AI Logic SDK در برنامههای خود ادغام کنند. این SDK برای نیازهای دادههای بزرگتر طراحی شده است و با فراهم کردن دسترسی به این مدلهای هوش مصنوعی چندوجهی و با عملکرد بالا، قابلیتها و سازگاری گستردهای را ارائه میدهد.
با استفاده از کیت توسعه نرمافزاری Firebase AI Logic، توسعهدهندگان میتوانند با کمترین تلاش، فراخوانیهای سمت کلاینت را به مدلهای هوش مصنوعی گوگل انجام دهند. این مدلها، مانند Gemini Pro و Gemini Flash، استنتاج را در فضای ابری اجرا میکنند و به برنامههای اندروید این امکان را میدهند که انواع ورودیها از جمله تصویر، صدا، ویدیو و متن را پردازش کنند. Gemini Pro در استدلال در مورد مسائل پیچیده و تجزیه و تحلیل دادههای گسترده عالی عمل میکند، در حالی که سری Gemini Flash سرعت برتر و یک پنجره زمینه به اندازه کافی بزرگ برای اکثر وظایف ارائه میدهد.
چه زمانی از یادگیری ماشین سنتی استفاده کنیم
اگرچه هوش مصنوعی مولد برای ایجاد و ویرایش محتوایی مانند متن، تصاویر و کد مفید است، بسیاری از مسائل دنیای واقعی با استفاده از تکنیکهای سنتی یادگیری ماشین (ML) بهتر حل میشوند. این روشهای تثبیتشده در وظایفی شامل پیشبینی، طبقهبندی، تشخیص و درک الگوهای موجود در دادههای موجود، اغلب با کارایی بیشتر، هزینه محاسباتی کمتر و پیادهسازی سادهتر نسبت به مدلهای مولد، برتری دارند.
چارچوبهای سنتی یادگیری ماشین، راهحلهای قوی، بهینه و اغلب کاربردیتری را برای برنامههایی ارائه میدهند که بر تجزیه و تحلیل ورودی، شناسایی ویژگیها یا پیشبینی بر اساس الگوهای آموختهشده تمرکز دارند - به جای تولید خروجی کاملاً جدید. ابزارهایی مانند کیت یادگیری ماشین گوگل، LiteRT و MediaPipe قابلیتهای قدرتمندی را برای این موارد استفاده غیرتولیدی، بهویژه در محیطهای محاسبات موبایل و لبه، ارائه میدهند.
ادغام یادگیری ماشین خود را با ML Kit شروع کنید
کیت یادگیری ماشین (ML Kit) راهکارهای آماده برای تولید و بهینهسازی شده برای موبایل را برای وظایف رایج یادگیری ماشین ارائه میدهد که نیازی به تخصص قبلی در زمینه یادگیری ماشین ندارد. این SDK موبایل با کاربرد آسان، تخصص یادگیری ماشین گوگل را مستقیماً به برنامههای اندروید و iOS شما میآورد و به شما این امکان را میدهد که به جای آموزش و بهینهسازی مدل، بر توسعه ویژگیها تمرکز کنید. کیت یادگیری ماشین، APIهای از پیش ساخته شده و مدلهای آماده برای استفاده را برای ویژگیهایی مانند اسکن بارکد، تشخیص متن (OCR)، تشخیص چهره، برچسبگذاری تصویر، تشخیص و ردیابی اشیاء، شناسایی زبان و پاسخ هوشمند ارائه میدهد.
این مدلها معمولاً برای اجرا روی دستگاه بهینه شدهاند، که تأخیر کم، عملکرد آفلاین و افزایش حریم خصوصی کاربر را تضمین میکند زیرا دادهها اغلب روی دستگاه باقی میمانند. کیت ML را انتخاب کنید تا به سرعت ویژگیهای تثبیتشده ML را به برنامه تلفن همراه خود اضافه کنید، بدون اینکه نیازی به آموزش مدلها یا نیاز به خروجی تولیدی داشته باشید. این کیت برای بهبود کارآمد برنامهها با قابلیتهای "هوشمند" با استفاده از مدلهای بهینهشده گوگل یا با استقرار مدلهای سفارشی TensorFlow Lite ایدهآل است.
با راهنماها و مستندات جامع ما در سایت توسعهدهنده ML Kit شروع کنید.
استقرار سفارشی یادگیری ماشین با LiteRT
برای کنترل بیشتر یا استقرار مدلهای یادگیری ماشین خودتان، از یک پشته یادگیری ماشین سفارشی ساخته شده بر روی سرویسهای LiteRT و Google Play استفاده کنید. این پشته ملزومات لازم برای استقرار ویژگیهای یادگیری ماشین با عملکرد بالا را فراهم میکند. LiteRT یک جعبه ابزار بهینه شده برای اجرای کارآمد مدلهای TensorFlow در دستگاههای موبایل، تعبیهشده و لبهای با منابع محدود است و به شما این امکان را میدهد که مدلهای بسیار کوچکتر و سریعتری را اجرا کنید که حافظه، انرژی و فضای ذخیرهسازی کمتری مصرف میکنند. زمان اجرای LiteRT برای شتابدهندههای سختافزاری مختلف (GPU، DSP، NPU) در دستگاههای لبهای بسیار بهینه شده است و امکان استنتاج با تأخیر کم را فراهم میکند.
زمانی که نیاز به استقرار کارآمد مدلهای یادگیری ماشین آموزشدیده (معمولاً برای طبقهبندی، رگرسیون یا تشخیص) در دستگاههایی با قدرت محاسباتی یا عمر باتری محدود، مانند تلفنهای هوشمند، دستگاههای اینترنت اشیا یا میکروکنترلرها دارید، LiteRT را انتخاب کنید. این راهکار، راهحل ترجیحی برای استقرار مدلهای پیشبینی سفارشی یا استاندارد در لبه شبکه است که در آن سرعت و صرفهجویی در منابع از اهمیت بالایی برخوردار است.
درباره استقرار یادگیری ماشین با LiteRT بیشتر بدانید.
با MediaPipe، ادراک بلادرنگ را در برنامههای خود ایجاد کنید
مدیاپایپ (MediaPipe) راهکارهای یادگیری ماشینی متنباز، چند پلتفرمی و قابل تنظیم را برای رسانههای زنده و استریمینگ ارائه میدهد. از ابزارهای بهینه و از پیش ساخته شده برای کارهای پیچیده مانند ردیابی دست، تخمین حالت، تشخیص چهره و تشخیص اشیا بهرهمند شوید که همگی امکان تعامل با کارایی بالا و بلادرنگ را حتی در دستگاههای تلفن همراه فراهم میکنند.
خطوط لوله مبتنی بر گراف MediaPipe بسیار قابل تنظیم هستند و به شما امکان میدهند راهحلها را برای برنامههای اندروید، iOS، وب، دسکتاپ و برنامههای backend تنظیم کنید. MediaPipe را زمانی انتخاب کنید که برنامه شما نیاز به درک و واکنش فوری به دادههای حسگر زنده، به ویژه جریانهای ویدیویی، برای موارد استفاده مانند تشخیص حرکت، جلوههای AR، ردیابی تناسب اندام یا کنترل آواتار دارد - که همه بر تجزیه و تحلیل و تفسیر ورودی متمرکز هستند.
راهکارها را بررسی کنید و با MediaPipe شروع به ساخت کنید.
یک رویکرد را انتخاب کنید: روی دستگاه یا فضای ابری
هنگام ادغام ویژگیهای هوش مصنوعی/یادگیری ماشین در برنامه اندروید خود، یک تصمیم اولیه و بسیار مهم این است که آیا پردازش را مستقیماً روی دستگاه کاربر انجام دهید یا در فضای ابری. ابزارهایی مانند ML Kit، Gemini Nano و TensorFlow Lite قابلیتهای روی دستگاه را فعال میکنند، در حالی که APIهای ابری Gemini با Firebase AI Logic میتوانند پردازش قدرتمند مبتنی بر فضای ابری را ارائه دهند. انتخاب صحیح به عوامل مختلفی بستگی دارد که مختص مورد استفاده شما و نیازهای کاربر است.
برای هدایت تصمیم خود، جنبههای زیر را در نظر بگیرید:
- اتصال و عملکرد آفلاین : اگر برنامه شما نیاز به عملکرد قابل اعتماد بدون اتصال به اینترنت دارد، راهکارهای روی دستگاه مانند Gemini Nano ایدهآل هستند. پردازش مبتنی بر ابر، ذاتاً نیاز به دسترسی به شبکه دارد.
- حریم خصوصی دادهها : برای مواردی که دادههای کاربر به دلایل حفظ حریم خصوصی باید روی دستگاه باقی بمانند، پردازش روی دستگاه با نگهداری اطلاعات حساس به صورت محلی، مزیت متمایزی ارائه میدهد.
- قابلیتهای مدل و پیچیدگی وظیفه : مدلهای مبتنی بر ابر اغلب به طور قابل توجهی بزرگتر، قدرتمندتر و با سرعت بیشتری بهروزرسانی میشوند، که آنها را برای وظایف هوش مصنوعی بسیار پیچیده یا هنگام پردازش ورودیهای بزرگتر که در آن کیفیت خروجی بالاتر و قابلیتهای گستردهتر اهمیت دارند، مناسب میکند. وظایف سادهتر ممکن است توسط مدلهای روی دستگاه به خوبی انجام شوند.
- ملاحظات هزینه : APIهای ابری معمولاً شامل قیمتگذاری مبتنی بر استفاده هستند، به این معنی که هزینهها میتوانند با تعداد استنتاجها یا میزان دادههای پردازش شده، مقیاسبندی شوند. استنتاج روی دستگاه، اگرچه عموماً عاری از هزینههای مستقیم به ازای هر استفاده است، اما هزینههای توسعه را به همراه دارد و میتواند بر منابع دستگاه مانند عمر باتری و عملکرد کلی تأثیر بگذارد.
- منابع دستگاه : مدلهای روی دستگاه، فضای ذخیرهسازی دستگاه کاربر را اشغال میکنند. همچنین مهم است که از سازگاری مدلهای خاص روی دستگاه، مانند Gemini Nano، با دستگاه مورد نظر خود آگاه باشید تا مطمئن شوید مخاطب هدف شما میتواند از ویژگیها استفاده کند.
- تنظیم دقیق و سفارشیسازی : اگر به توانایی تنظیم دقیق مدلها برای مورد استفاده خاص خود نیاز دارید، راهحلهای مبتنی بر ابر عموماً انعطافپذیری بیشتر و گزینههای گستردهتری برای سفارشیسازی ارائه میدهند.
- سازگاری بین پلتفرمی : اگر ویژگیهای هوش مصنوعی سازگار در پلتفرمهای مختلف، از جمله iOS، بسیار مهم هستند، توجه داشته باشید که برخی از راهحلهای روی دستگاه، مانند Gemini Nano، ممکن است هنوز در همه سیستم عاملها در دسترس نباشند.
با بررسی دقیق الزامات مورد استفاده و گزینههای موجود، میتوانید راهحل ایدهآل هوش مصنوعی/یادگیری ماشین را برای بهبود برنامه اندروید خود و ارائه تجربیات هوشمند و شخصیسازیشده به کاربران خود پیدا کنید.
راهنمای راهکارهای هوش مصنوعی/یادگیری ماشین
این راهنمای راهحلها میتواند به شما در شناسایی ابزارهای توسعهدهنده مناسب برای ادغام فناوریهای هوش مصنوعی/یادگیری ماشین در پروژههای اندرویدتان کمک کند.
هدف اصلی ویژگی هوش مصنوعی چیست؟
- الف) تولید محتوای جدید (متن، توضیحات تصویر) یا انجام پردازش متن ساده (خلاصهسازی، ویرایش یا بازنویسی متن)؟ → به Generative AI بروید
- ب) تحلیل دادهها/ورودیهای موجود برای پیشبینی، طبقهبندی، تشخیص، درک الگوها یا پردازش جریانهای بلادرنگ (مانند ویدئو/صوت)؟ → به یادگیری ماشین سنتی و ادراک بروید
یادگیری ماشین سنتی و ادراک
شما باید ورودی را تجزیه و تحلیل کنید، ویژگیها را شناسایی کنید یا بر اساس الگوهای آموخته شده پیشبینیهایی انجام دهید، نه اینکه خروجی کاملاً جدیدی تولید کنید.
چه وظیفه خاصی را انجام میدهید؟
- الف) آیا به ادغام سریع ویژگیهای رایج و از پیش ساخته شدهی یادگیری ماشین موبایل نیاز دارید؟ (مثلاً اسکن بارکد، تشخیص متن (OCR)، تشخیص چهره، برچسبگذاری تصویر، تشخیص و ردیابی اشیاء، شناسه زبان، پاسخ هوشمند اولیه)
- → استفاده از: کیت ML (API های سنتی)
- چرا : سادهترین ادغام برای وظایف یادگیری ماشینی موبایل، که اغلب برای استفاده روی دستگاه بهینه شده است (تأخیر کم، آفلاین، حریم خصوصی).
- ب) آیا برای انجام وظایف ادراکی نیاز به پردازش دادههای جریانی بلادرنگ (مانند ویدئو یا صدا) دارید؟ (مثلاً ردیابی دست، تخمین حالت، شبکه چهره، تشخیص و قطعهبندی بلادرنگ اشیا در ویدئو)
- → استفاده: مدیاپایپ
- چرا : چارچوبی تخصصی برای خطوط لوله ادراک با کارایی بالا و بلادرنگ در پلتفرمهای مختلف.
- ج) آیا نیاز دارید مدل یادگیری ماشین آموزشدیده سفارشی خود را (مثلاً برای طبقهبندی، رگرسیون، تشخیص) به طور کارآمد روی دستگاه اجرا کنید و عملکرد و استفاده کم از منابع را در اولویت قرار دهید؟
- → استفاده از: LiteRT (زمان اجرای TensorFlow Lite)
- دلیل : زمان اجرای بهینه برای استقرار کارآمد مدلهای سفارشی در دستگاههای موبایل و لبه (اندازه کوچک، استنتاج سریع، شتاب سختافزاری).
- د) آیا نیاز دارید مدل یادگیری ماشین سفارشی خودتان را برای یک کار خاص آموزش دهید ؟
- → استفاده: LiteRT (TensorFlow Lite Runtime) + آموزش مدل سفارشی
- چرا : ابزارهایی را برای آموزش و استقرار مدلهای سفارشی، بهینه شده برای دستگاههای تلفن همراه و لبه، فراهم میکند.
- ه) به طبقهبندی پیشرفته محتوا، تحلیل احساسات یا ترجمه چندین زبان با ظرافت بالا نیاز دارید؟
- در نظر بگیرید که آیا مدلهای سنتی یادگیری ماشین (که به طور بالقوه با استفاده از LiteRT یا فضای ابری مستقر میشوند) مناسب هستند، یا اینکه NLU پیشرفته به مدلهای مولد نیاز دارد (به شروع برگردید، A را انتخاب کنید). برای طبقهبندی، احساسات یا ترجمه مبتنی بر فضای ابری:
- → کاربرد: راهکارهای مبتنی بر ابر (مثلاً API زبان طبیعی گوگل کلود ، API ترجمه گوگل کلود ، که احتمالاً با استفاده از یک backend سفارشی یا Vertex AI قابل دسترسی هستند) . (اگر آفلاین یا حریم خصوصی مهم باشد، اولویت کمتری نسبت به گزینههای روی دستگاه دارند).
- چرا : راهکارهای ابری مدلهای قدرتمند و پشتیبانی گسترده از زبانها را ارائه میدهند، اما نیاز به اتصال دارند و ممکن است هزینههایی را متحمل شوند.
هوش مصنوعی مولد
شما نیاز به ایجاد محتوای جدید، خلاصه کردن، بازنویسی یا انجام وظایف پیچیده درک یا تعامل دارید.
آیا نیاز دارید که هوش مصنوعی به صورت آفلاین کار کند، به حداکثر حریم خصوصی دادهها نیاز دارید (دادههای کاربر روی دستگاه نگهداری شود) یا میخواهید از هزینههای استنتاج ابری اجتناب کنید؟
- الف) بله ، آفلاین، حداکثر حریم خصوصی یا بدون هزینه ابری بسیار مهم است.
- → به هوش مصنوعی مولد روی دستگاه بروید
- ب) خیر ، اتصال موجود و قابل قبول است، قابلیتهای ابری و مقیاسپذیری مهمتر هستند، یا ویژگیهای خاصی به فضای ابری نیاز دارند.
- → به هوش مصنوعی مولد ابری بروید
هوش مصنوعی مولد روی دستگاه (با استفاده از Gemini Nano)
هشدارها : نیاز به دستگاههای اندروید سازگار، پشتیبانی محدود از iOS، محدودیتهای توکن خاص (۱۰۲۴ اعلان، ۴۰۹۶ متن)، مدلها نسبت به مدلهای ابری قدرت کمتری دارند.
آیا مورد استفاده شما به طور خاص با وظایف ساده ارائه شده توسط API های ML Kit GenAI (خلاصه کردن متن، ویرایش متن، بازنویسی متن، تولید توضیحات تصویر یا انجام تشخیص گفتار) مطابقت دارد؟ و آیا محدودیت توکن کافی است؟
- الف) بله :
- → استفاده: رابطهای برنامهنویسی کاربردی GenAI کیت ML (ارائه شده توسط Gemini Nano)
- چرا : سادهترین راه برای ادغام وظایف تولیدی خاص و رایج روی دستگاه، راهکاری با بالاترین اولویت روی دستگاه.
- ب) خیر (شما به دستورالعملها یا وظایف انعطافپذیرتری فراتر از APIهای خاص ML Kit GenAI نیاز دارید، اما همچنان میخواهید اجرای روی دستگاه در چارچوب قابلیتهای Nano باشد):
- → استفاده: دسترسی آزمایشی جمینی نانو
- چرا : قابلیتهای اعلان باز را روی دستگاه برای موارد استفاده فراتر از APIهای ساختاریافته ML Kit GenAI، با رعایت محدودیتهای نانو، فراهم میکند.
هوش مصنوعی مولد ابری
از مدلهای قدرتمندتری استفاده میکند، به اتصال نیاز دارد، معمولاً شامل هزینههای استنتاج میشود، دسترسی به دستگاههای وسیعتر و سازگاری آسانتر بین پلتفرمی (اندروید و iOS) را ارائه میدهد.
اولویت شما چیست: سهولت ادغام در Firebase یا حداکثر انعطافپذیری/کنترل؟
- الف) ادغام آسانتر، تجربه API مدیریتشده را ترجیح میدهید و احتمالاً از Firebase استفاده میکنید؟
- → استفاده از: کیت توسعه نرمافزاری منطق هوش مصنوعی فایربیس → رفتن به منطق هوش مصنوعی فایربیس
- ب) به حداکثر انعطافپذیری، دسترسی به وسیعترین طیف مدلها (از جمله مدلهای شخص ثالث/سفارشی)، تنظیم دقیق پیشرفته نیاز دارید و مایل به مدیریت یکپارچهسازی backend خود (پیچیدهتر) هستید؟
- → استفاده: رابط برنامهنویسی نرمافزار Gemini با یک Backend ابری سفارشی (با استفاده از پلتفرم ابری گوگل)
- چرا : بیشترین کنترل، وسیعترین دسترسی به مدل و گزینههای آموزش سفارشی را ارائه میدهد اما به تلاش قابل توجهی برای توسعه backend نیاز دارد. مناسب برای نیازهای پیچیده، در مقیاس بزرگ یا بسیار سفارشی.
( شما Firebase AI Logic SDK را انتخاب کردید) به چه نوع وظیفه مولد و پروفایل عملکردی نیاز دارید؟
- الف) به دنبال تعادلی بین عملکرد و هزینه هستید، مناسب برای تولید متن عمومی، خلاصهسازی یا برنامههای چت که در آنها سرعت مهم است؟
- → استفاده: کیت توسعه نرمافزاری منطق هوش مصنوعی فایربیس با فلش جمینی
- دلیل : برای سرعت و کارایی در محیط مدیریتشده توسط Vertex AI بهینهسازی شده است.
- ب) به کیفیت و قابلیت بالاتری برای تولید متن پیچیده، استدلال، NLU پیشرفته یا دنبال کردن دستورالعمل نیاز دارید؟
- → استفاده از: کیت توسعه نرمافزاری منطق هوش مصنوعی فایربیس به همراه جمینی پرو
- چرا : مدل متنی قدرتمندتر برای وظایف دشوار، که از طریق Firebase قابل دسترسی است.
- ج) آیا به تولید تصویر پیچیده یا درک یا دستکاری پیشرفته تصویر بر اساس پیامهای متنی نیاز دارید؟
- → استفاده: کیت توسعه نرمافزاری منطق هوش مصنوعی فایربیس با ایمیجن ۳
- دلیل : مدل تولید تصویر پیشرفته که با استفاده از محیط مدیریتشدهی Firebase قابل دسترسی است.