تم تصميم هذا الدليل لمساعدتك في دمج حلول الذكاء الاصطناعي التوليدي وتعلُّم الآلة من Google في تطبيقاتك. ويقدّم الدليل إرشادات لمساعدتك في التنقّل بين حلول الذكاء الاصطناعي وتعلُّم الآلة المختلفة المتاحة واختيار الحلّ الذي يناسب احتياجاتك على نحوٍ أفضل. يهدف هذا المستند إلى مساعدتك في تحديد الأداة التي يجب استخدامها و سبب استخدامها، وذلك من خلال التركيز على احتياجاتك وحالات الاستخدام.
لمساعدتك في اختيار حلّ الذكاء الاصطناعي أو تعلُّم الآلة الأنسب لاحتياجاتك الخاصة، يتضمّن هذا المستند دليلاً للحلول. من خلال الإجابة عن سلسلة من الأسئلة حول أهداف مشروعك والقيود المفروضة عليه، يوجّهك الدليل نحو الأدوات والتقنيات الأكثر ملاءمةً.
يساعدك هذا الدليل في اختيار أفضل حلّ للذكاء الاصطناعي لتطبيقك. ننصحك بالأخذ في الاعتبار العوامل التالية: نوع البيانات (النصوص والصور والمحتوى الصوتي والفيديوهات) وتعقيد المهام (من التلخيص البسيط إلى المهام المعقّدة التي تتطلّب معرفة متخصّصة) و حجم البيانات (المدخلات القصيرة مقابل المستندات الكبيرة). سيساعدك ذلك في تحديد ما إذا كنت تريد استخدام Gemini Nano على جهازك أو تكنولوجيا الذكاء الاصطناعي المستندة إلى السحابة الإلكترونية من Firebase (Gemini Flash أو Gemini Pro أو Imagen).
الاستفادة من إمكانات الاستنتاج على الجهاز
عند إضافة ميزات الذكاء الاصطناعي والتعلم الآلي إلى تطبيق Android، يمكنك اختيار طرق مختلفة لتقديمها، إما على الجهاز أو باستخدام السحابة الإلكترونية.
تحقّق الحلول التي تعمل على الجهاز فقط، مثل Gemini Nano، النتائج بدون أي تكلفة إضافية، وتوفّر خصوصية محسّنة للمستخدم، ووظائف موثوقة بلا إنترنت، لأنّه تتم معالجة بيانات الإدخال محليًا. يمكن أن تكون هذه المزايا ضرورية لحالات استخدام معيّنة، مثل تلخيص الرسائل، ما يجعل المعالجة على الجهاز أولوية عند اختيار الحلول المناسبة.
يتيح لك Gemini Nano إجراء الاستنتاج مباشرةً على جهاز Android. إذا كنت تعمل مع نص أو صور، ابدأ باستخدام واجهات برمجة التطبيقات GenAI APIs من ML Kit للحصول على حلول جاهزة. تستند واجهات برمجة التطبيقات الذكاء الاصطناعي التوليدي في ML Kit إلى Gemini Nano وتم تحسينها لتنفيذ مهام معيّنة على الجهاز فقط. واجهة برمجة التطبيقات لميزة الذكاء الاصطناعي التوليدي في ML Kit هي مسار مثالي لنشر تطبيقاتك نظرًا لواجهة برمجة التطبيقات الرفيعة المستوى وقابليتها للتوسّع. تتيح لك واجهات برمجة التطبيقات هذه تنفيذ حالات الاستخدام بهدف تلخيص النص ومراجعته وإعادة كتابته، بالإضافة إلى إنشاء أوصاف للصور.
للاستفادة من حالات الاستخدام الأساسية التي توفّرها واجهات برمجة تطبيقات الذكاء الاصطناعي التوليدي في ML Kit، ننصحك بالاستفادة من إمكانية الوصول التجريبي إلى Gemini Nano. تمنحك إمكانية الوصول التجريبي إلى Gemini Nano إمكانية الوصول بشكل مباشر إلى طلبات مخصّصة باستخدام Gemini Nano.
بالنسبة إلى مهام تعلُّم الآلة التقليدية، يمكنك تنفيذ نماذجك المخصّصة بكل مرونة. نوفّر أدوات فعّالة، مثل ML Kit وMediaPipe وLiteRT وميزات عرض Google Play، بهدف تسهيل عملية التطوير.
بالنسبة إلى التطبيقات التي تتطلّب حلولاً متخصّصة للغاية، يمكنك استخدام نماذج مخصّصة، مثل Gemma أو نموذج آخر مخصّص لحالة الاستخدام المحدّدة. يمكنك تشغيل النموذج مباشرةً على جهاز المستخدم باستخدام مكتبة LiteRT التي توفّر تصاميم مسبقة للنموذج من أجل تحسين الأداء.
يمكنك أيضًا إنشاء حلّ مختلط من خلال الاستفادة من طُرز التطبيقات على الجهاز والطُرز المستندة إلى السحابة الإلكترونية.
تستخدم التطبيقات المتوافقة مع الأجهزة الجوّالة عادةً النماذج المحلية لبيانات النصوص الصغيرة، مثل محادثات الرسائل المبرمَجة أو مقالات المدونات. ومع ذلك، بالنسبة إلى مصادر البيانات الأكبر حجمًا (مثل ملفات PDF) أو عند الحاجة إلى معرفة إضافية، قد يكون من الضروري استخدام حلّ مستند إلى السحابة الإلكترونية يتضمّن نماذج Gemini أكثر فعالية.
دمج نماذج Gemini المتقدّمة
يمكن لمطوّري تطبيقات Android دمج إمكانات الذكاء الاصطناعي التوليدي المتقدّمة من Google، بما في ذلك نماذج Gemini Pro وGemini Flash وImagen القوية، في تطبيقاتهم باستخدام حزمة تطوير البرامج (SDK) لبرنامج Firebase AI Logic. تم تصميم حزمة SDK هذه لتلبية الاحتياجات الأكبر من البيانات، كما توفّر إمكانات وقابلية تكيّف موسّعة من خلال السماح بالوصول إلى نماذج الذكاء الاصطناعي العالية الأداء التي تستخدم عدّة طرق.
باستخدام حزمة تطوير البرامج (SDK) لـ Firebase AI Logic، يمكن للمطوّرين إجراء طلبات من جهة العميل إلى نماذج الذكاء الاصطناعي من Google بأقل جهد ممكن. وتعمل هذه النماذج، مثل Gemini Pro وGemini Flash، على إجراء الاستنتاج في السحابة الإلكترونية وتمكّن تطبيقات Android من معالجة مجموعة متنوعة من المدخلات، بما في ذلك الصور والصوت والفيديو والنص. يتميز Gemini Pro بالاستدلال على المشاكل المعقدة وتحليل البيانات الموسّعة، في حين توفّر سلسلة Gemini Flash سرعة فائقة ومساحة سياق كبيرة بما يكفي لمعظم المهام.
حالات استخدام أساليب تعلُّم الآلة التقليدية
على الرغم من أنّ الذكاء الاصطناعي التوليدي مفيد لإنشاء المحتوى وتعديله، مثل النصوص والصور والرموز البرمجية، يمكن حلّ العديد من المشاكل في العالم الحقيقي بشكل أفضل باستخدام تقنيات التعلم الآلي التقليدية. تتفوّق هذه الطرق الراسخة في المهام التي تتعلّق بالتنبؤ والتصنيف ورصد الأنماط وفهمها ضمن البيانات الحالية، وغالبًا ما تحقّق هذه الطرق كفاءة أكبر وتكلفة حسابية أقل وتنفيذًا أبسط من النماذج التوليدية.
توفّر إطارات عمل تعلُّم الآلة التقليدية حلولاً قوية ومحسّنة وغالبًا ما تكون أكثر عملية للتطبيقات التي تركّز على تحليل الإدخال أو تحديد الميزات أو التوقّعات استنادًا إلى الأنماط المتعلّمة، بدلاً من إنشاء ناتج جديد تمامًا. توفّر أدوات مثل ML Kit وLiteRT وMediaPipe من Google إمكانات فعالة مخصّصة لحالات الاستخدام هذه غير التوليدية، لا سيما في البيئات المخصّصة للأجهزة الجوّالة والمعالجة الطرفية.
بدء دمج تكنولوجيات تعلُّم الآلة باستخدام ML Kit
توفّر حزمة ML Kit حلولاً جاهزة للاستخدام محسّنة للأجهزة الجوّالة لمهام تعلُّم الآلة الشائعة، ولا تتطلّب أي خبرة سابقة في تعلُّم الآلة. توفّر حزمة تطوير البرامج (SDK) للأجهزة الجوّالة هذه السهلة الاستخدام خبرة Google في مجال تعلُّم الآلة مباشرةً في تطبيقات Android وiOS، ما يتيح لك التركيز على تطوير الميزات بدلاً من تدريب النماذج وتحسينها. توفّر حزمة ML Kit واجهات برمجة تطبيقات مُعدّة مسبقًا ونماذج جاهزة للاستخدام لميزات، مثل فحص الرمز الشريطي، والتعرّف على النص (التعرّف البصري على الأحرف)، ورصد الوجوه، وتصنيف الصور، ورصد الأجسام وتتبُّعها، وتحديد اللغة، والردّ السريع.
ويتم عادةً تحسين هذه النماذج للتنفيذ على الجهاز، ما يضمن وقت استجابة منخفضًا ووظائف تعمل بلا إنترنت وخصوصية محسّنة للمستخدمين لأنّ البيانات غالبًا ما تظل على الجهاز. اختَر ML Kit لإضافة ميزات تعلُّم الآلة المُثبَّتة بسرعة إلى تطبيقك المتوافق مع الأجهزة الجوّالة بدون الحاجة إلى تدريب النماذج أو طلب ناتج توليدي. وهو مثالي لتحسين التطبيقات بكفاءة باستخدام إمكانات "ذكية" باستخدام نماذج Google المحسّنة أو من خلال نشر نماذج TensorFlow Lite المخصّصة.
يمكنك البدء باستخدام الأدلة والمستندات الشاملة على موقع "مجموعة تطوير الذكاء الاصطناعي" المخصّص للمطوّرين.
نشر نماذج تعلُّم الآلة المخصّصة باستخدام LiteRT
للحصول على مزيد من التحكّم أو لنشر نماذج تعلُّم الآلة الخاصة بك، استخدِم حِزمة تعلُّم آلة مخصّصة تم إنشاؤها استنادًا إلى LiteRT وخدمات Google Play. توفّر هذه الحزمة الأساسيات اللازمة ل نشر ميزات الذكاء الاصطناعي العالية الأداء. LiteRT هي مجموعة أدوات محسَّنة لتشغيل نماذج TensorFlow بكفاءة على الأجهزة الجوّالة والمضمّنة والأجهزة الطرفية التي تواجه قيودًا في الموارد، ما يمنحك إمكانية تشغيل نماذج أصغر حجمًا وأسرع بكثير تستهلك طاقة ومساحة تخزين وذاكرة أقل. تم تحسين بيئة التشغيل LiteRT بشكل كبير لمسرِّعات الأجهزة المختلفة (وحدات معالجة الرسومات ووحدات معالجة الإشارات الرقمية ووحدات المعالجة العصبية) على الأجهزة الطرفية، ما يتيح إجراء الاستنتاجات بوقت استجابة منخفض.
اختَر LiteRT عندما تحتاج إلى نشر نماذج تعلُّم آلي مدربة بكفاءة (عادةً للتصنيف أو الانحدار أو الكشف) على الأجهزة التي تتضمّن طاقة حاسوبية محدودة أو عمر بطارية محدودًا، مثل الهواتف الذكية أو أجهزة إنترنت الأشياء أو المتحكمات الدقيقة. وهو الحلّ المفضّل لنشر نماذج توقّعية مخصّصة أو عادية في الحافة حيث تكون السرعة وحفظ الموارد مهمّين للغاية.
اطّلِع على مزيد من المعلومات عن نشر الذكاء الاصطناعي باستخدام LiteRT.
إضافة ميزة التعرّف على الأشياء في الوقت الفعلي إلى تطبيقاتك باستخدام MediaPipe
تقدّم MediaPipe حلول تعلُّم الآلة القابلة للتخصيص والمفتوحة المصدر والعاملة على جميع المنصات، وهي مصمّمة للوسائط المباشرة ووسائل البث. يمكنك الاستفادة من الأدوات المحسّنة والمُعدّة مسبقًا للمهام المعقّدة، مثل تتبُّع اليد وتقييم الوضع بدلاً من التعرّف على شبكة الوجه ورصد الأجسام، ما يتيح التفاعل العالي الأداء في الوقت الفعلي حتى على الأجهزة الجوّالة.
إنّ مسارات المعالجة المستندة إلى الرسوم البيانية في MediaPipe قابلة للتخصيص بشكل كبير، ما يتيح لك تخصيص الحلول لتطبيقات Android وiOS والويب وأجهزة الكمبيوتر المكتبي والخلفية. اختَر MediaPipe عندما يحتاج تطبيقك إلى فهم بيانات أجهزة الاستشعار المباشرة والتفاعل معها على الفور، خاصةً أحداث بث الفيديو، وذلك لاستخدامات مثل التعرّف على الإيماءات أو تأثيرات الواقع المعزّز أو تتبُّع اللياقة البدنية أو التحكّم في الصورة الرمزية، وكل ذلك يركّز على تحليل الإدخال وتفسيره.
استكشِف الحلول وابدأ إنشاء التطبيقات باستخدام MediaPipe.
اختَر طريقة: على الجهاز أو السحابة الإلكترونية.
عند دمج ميزات الذكاء الاصطناعي (AI) أو تعلُّم الآلة (ML) في تطبيق Android، يجب اتخاذ قرار مهم في وقت مبكر بشأن ما إذا كنت تريد إجراء المعالجة مباشرةً على جهاز المستخدم أو في السحابة الإلكترونية. تتيح أدوات مثل ML Kit وGemini Nano وTensorFlow Lite ميزات تتعلّق بالمعالجة على الجهاز فقط، في حين يمكن أن توفّر واجهات برمجة تطبيقات السحابة الإلكترونية في Gemini مع Firebase AI Logic معالجة فعّالة مستندة إلى السحابة الإلكترونية. ويعتمد اتخاذ الخيار الصحيح على مجموعة متنوعة من العوامل الخاصة بحالة الاستخدام واحتياجات المستخدمين.
ننصحك بالاطّلاع على الجوانب التالية لتوجيه قرارك:
- إمكانية الاتصال والوظائف التي تعمل بلا إنترنت: إذا كان تطبيقك يحتاج إلى العمل بشكل موثوق بدون اتصال بالإنترنت، تكون الحلول التي تعمل على الجهاز، مثل Gemini Nano، مثالية. تتطلّب المعالجة المستندة إلى السحابة الإلكترونية، بطبيعتها، الوصول إلى الشبكة.
- خصوصية البيانات: في حالات الاستخدام التي يجب فيها إبقاء بيانات المستخدم على الجهاز لأسباب تتعلّق بالخصوصية، توفّر المعالجة على الجهاز فقط ميزة مميّزة من خلال الاحتفاظ بالمعلومات الحسّاسة على الجهاز فقط.
- إمكانات النماذج وتعقيد المهام: غالبًا ما تكون النماذج المستندة إلى السحابة الإلكترونية أكبر حجمًا وأكثر فعالية ويتم تعديلها بشكل متكرر، ما يجعلها مناسبة لمهام الذكاء الاصطناعي المعقّدة للغاية أو عند معالجة مدخلات أكبر حيث يكون الحصول على جودة أعلى للمخرجات وإمكانات واسعة النطاق أمرًا بالغ الأهمية. قد تعالج النماذج على الجهاز المهام الأسهل بشكل جيد.
- العوامل التي يجب مراعاتها في ما يتعلّق بالتكلفة: تعتمد واجهات برمجة تطبيقات السحابة الإلكترونية عادةً على الأسعار المستندة إلى الاستخدام، ما يعني أنّ التكاليف يمكن أن تتغيّر حسب عدد الاستنتاجات أو مقدار البيانات التي تتم معالجتها. على الرغم من أنّ الاستنتاج على الجهاز لا يتطلّب عادةً تكاليف مباشرة مقابل الاستخدام، إلا أنّه يتطلّب تكاليف تطوير ويمكن أن يؤثر في موارد الجهاز، مثل مدة استخدام البطارية والأداء العام.
- موارد الجهاز: تستهلك النماذج على الجهاز مساحة تخزين على جهاز المستخدم. من المهم أيضًا معرفة توافق نماذج معيّنة تعمل على الجهاز فقط، مثل Gemini Nano، مع الأجهزة المختلفة لضمان تمكّن جمهورك المستهدَف من استخدام الميزات.
- التحسين والتخصيص: إذا كنت بحاجة إلى إمكانية تحسين نماذج حالة الاستخدام المحدّدة، تقدّم الحلول المستندة إلى السحابة الإلكترونية بشكل عام مرونة أكبر وخيارات أكثر تفصيلاً للتخصيص.
- التناسق على جميع المنصات: إذا كانت ميزات الذكاء الاصطناعي المتسقة على منصّات متعددة، بما في ذلك iOS، مهمة، يُرجى العِلم أنّ بعض الحلول التي تعمل على الجهاز فقط، مثل Gemini Nano، قد لا تكون متاحة بعد على جميع أنظمة التشغيل.
من خلال النظر بعناية في متطلبات حالات الاستخدام والخيارات المتاحة، يمكنك العثور على الحل الأمثل للذكاء الاصطناعي (AI) أو تعلُّم الآلة (ML) لتحسين تطبيق Android وتقديم تجارب ذكية ومخصّصة للمستخدمين.
دليل حلول الذكاء الاصطناعي/تعلُّم الآلة
يمكن أن يساعدك دليل الحلول هذا في تحديد أدوات المطوّرين المناسبة لتكامل تكنولوجيات الذكاء الاصطناعي/التعلم الآلي في مشاريع Android.
ما هو الهدف الأساسي من ميزة الذكاء الاصطناعي؟
- أ) إنشاء محتوى جديد (نص أو أوصاف صور) أو تنفيذ معالجة نصية بسيطة (تلخيص النص أو تصحيحه أو إعادة كتابته)؟ → انتقِل إلى الذكاء الاصطناعي التوليدي.
- ب) هل يتم تحليل البيانات/المدخلات الحالية للتوقّع أو التصنيف أو الاكتشاف أو فهم الأنماط أو معالجة أحداث البث المباشر (مثل الفيديو أو الصوت)؟ → انتقِل إلى الذكاء الاصطناعي التقليدي والإدراك.
التعرّف والتعلّم الآلي التقليدي
عليك تحليل الإدخال أو تحديد الميزات أو إجراء توقّعات استنادًا إلى الأنماط المستندة إلى التعلم، بدلاً من إنشاء ناتج جديد تمامًا.
ما هي المهمة المحدّدة التي تُنفذها؟
- أ) هل تحتاج إلى دمج سريع لميزات تعلُّم الآلة الشائعة والمُنشأة مسبقًا على الأجهزة الجوّالة؟
(مثل مسح الرموز الشريطية والتعرّف على النصوص (OCR) ورصد الوجوه ووضع تصنيفات للصور ورصد الأجسام وتتبُّعها وتحديد اللغة والرد السريع الأساسي)
- → استخدام: ML Kit (واجهات برمجة التطبيقات التقليدية)
- السبب: أسهل عملية دمج لمشاريع تعلُّم الآلة المُعدّة للأجهزة الجوّالة، والتي غالبًا ما تكون محسّنة للاستخدام على الجهاز (وقت استجابة منخفض وعدم الاتصال بالإنترنت والخصوصية).
- ب) هل تحتاج إلى معالجة بيانات البث المباشر (مثل الفيديو أو الصوت) للقيام
بمهام الإدراك؟ (مثل تتبُّع اليد وتقدير الوضع وشبكة الوجه،
ورصد الأجسام وتقسيمها في الفيديو في الوقت الفعلي)
- → استخدِم: MediaPipe
- السبب: إطار عمل مخصّص لقنوات معالجة المعلومات في الوقت الفعلي العالية الأداء على منصّات مختلفة.
- ج) هل تحتاج إلى تشغيل نموذج تعلُّم الآلة المدرَّب الخاص بك بكفاءة (مثلاً، للتصنيف والتدرّج والرصد) على الجهاز، مع إعطاء الأولوية للأداء واستخدام الموارد المنخفض؟
- → استخدِم: LiteRT (TensorFlow Lite Runtime).
- السبب: وقت تشغيل محسّن ل deploying نماذج مخصّصة بكفاءة على الأجهزة الجوّالة وأجهزة الحافة (حجم صغير، استنتاج سريع، تسريع الأجهزة)
- د) هل تحتاج إلى تدريب نموذج تعلُّم آلة مخصّص لك لمهمة معيّنة؟
- → استخدام: LiteRT (TensorFlow Lite Runtime) + تدريب نموذج مخصّص
- السبب: توفّر هذه الخدمة الأدوات اللازمة لتدريب النماذج المخصّصة ونشرها، والتي تم تحسينها للأجهزة الجوّالة وأجهزة الحافة.
- هـ) هل تحتاج إلى تصنيف محتوى متقدّم أو تحليل للمشاعر أو translation of many languages with high nuance?
- ننصحك بالتفكير في ما إذا كانت نماذج تعلُّم الآلة التقليدية (التي يمكن نشرها باستخدام LiteRT أو cloud) مناسبة، أو ما إذا كانت تقنيات المعالجة اللغوية الطبيعية المتقدّمة تتطلّب نماذج توليدية (ارجع إلى الخطوة 1، واختَر "أ"). بالنسبة إلى التصنيف أو المشاعر أو translation المستنِدَين إلى السحابة الإلكترونية:
- → الاستخدام: الحلول المستندة إلى السحابة الإلكترونية (مثل Google Cloud Natural Language API، Google Cloud Translation API، التي يمكن الوصول إليها باستخدام خلفية مخصّصة أو Vertex AI) (تكون هذه الخيارات ذات أولوية أقل من الخيارات التي تعمل على الجهاز إذا كان الاتصال بالإنترنت أو الخصوصية مهمّين).
- السبب: توفّر حلول السحابة الإلكترونية نماذج فعالة ودعمًا واسعًا للغات، ولكنها تتطلّب اتصالاً بالإنترنت وقد تؤدي إلى تحمُّل تكاليف.
الذكاء الاصطناعي التوليدي
تحتاج إلى إنشاء محتوى جديد أو تلخيصه أو إعادة كتابته أو تنفيذ مهام معقدة تتعلّق بالفهم أو التفاعل.
هل تحتاج إلى أن يعمل الذكاء الاصطناعي بلا إنترنت، أو إلى خصوصية بيانات فائقة (الحفاظ على بيانات المستخدمين على الجهاز)، أو تريد تجنُّب تكاليف الاستنتاج في السحابة الإلكترونية؟
- أ) نعم، إذا كان من الضروري استخدام تطبيقات غير متصلة بالإنترنت أو تطبيقات توفّر أقصى درجات الخصوصية أو تطبيقات لا تتطلب أي تكلفة على السحابة الإلكترونية.
- → انتقِل إلى الذكاء الاصطناعي التوليدي على الجهاز فقط.
- ب) لا، لأنّ الاتصال متاح ومقبول، أو لأنّ إمكانات السحابة الإلكترونية و
قابلية التوسّع أكثر أهمية، أو لأنّ ميزات معيّنة تتطلّب استخدام السحابة الإلكترونية.
- → انتقِل إلى الذكاء الاصطناعي التوليدي في السحابة الإلكترونية.
الذكاء الاصطناعي التوليدي على الجهاز فقط (باستخدام Gemini Nano)
الاحتياطات: تتطلّب هذه الميزة استخدام أجهزة Android متوافقة، وتوافقًا محدودًا مع أجهزة iOS، وحدود معيّنة للرموز المميّزة (1024 طلبًا، و4096 سياقًا)، وتكون النماذج أقل فعالية مقارنةً بنماذج السحابة الإلكترونية.
هل تتطابق حالة الاستخدام تحديدًا مع المهام المبسّطة التي تقدّمها واجهات برمجة تطبيقات الذكاء الاصطناعي التوليدي في ML Kit؟ (تلخيص النص، تدقيق النص، إعادة كتابة النص، إنشاء أوصاف الصور) وهل حدود الرموز المميّزة كافية؟
- أ) نعم:
- → الاستخدام: واجهات برمجة تطبيقات ML Kit GenAI (مزوّدة بتقنية Gemini Nano)
- السبب: أسهل طريقة لدمج مهام إبداعية معيّنة ومشترَكة على الجهاز، وهو الحلّ الأعلى أولوية على الجهاز.
- ب) لا (إذا كنت بحاجة إلى طلبات أو مهام أكثر مرونة خارج واجهات برمجة التطبيقات المحدّدة لـ ML
Kit GenAI، ولكنك لا تزال تريد التنفيذ على الجهاز ضمن قدرات ميزات
Nano):
- → استخدام: الوصول التجريبي إلى Gemini Nano
- السبب: توفّر هذه الواجهة إمكانات طلبات مفتوحة على الجهاز لحالات الاستخدام التي تتجاوز واجهات برمجة التطبيقات لميزة الذكاء الاصطناعي التوليدي (GenAI) من ML Kit المنظَّمة، مع مراعاة قيود Nano.
الذكاء الاصطناعي التوليدي في السحابة الإلكترونية
يستخدم نماذج أكثر فعالية، ويتطلّب الاتصال بالإنترنت، ويتضمن عادةً تكاليف الاستنتاج، ويوفّر مدى وصول أوسع إلى الأجهزة وسهولة التوافق على جميع الأنظمة الأساسية (Android وiOS).
ما هي أولويتك: سهولة الدمج ضمن Firebase أم الحد الأقصى من المرونة/التحكّم؟
- أ) هل تفضّل الدمج الأسهل وتجربة واجهة برمجة تطبيقات مُدارة، ومن المرجّح أنّك
تستخدم Firebase حاليًا؟
- → استخدام حزمة تطوير البرامج (SDK) لـ Firebase AI Logic → الانتقال إلى Firebase AI Logic
- ب) هل تحتاج إلى أقصى قدر من المرونة والوصول إلى أوسع نطاق من النماذج
(بما في ذلك النماذج التابعة لجهات خارجية/المخصّصة) والضبط المتقدّم، وهل أنت على استعداد
لإدارة عملية دمج الخلفية بنفسك (العملية الأكثر تعقيدًا)؟
- → الاستخدام: Gemini API مع واجهة خلفية مخصّصة في السحابة الإلكترونية (باستخدام Google Cloud Platform)
- السبب: يوفّر هذا الخيار أكبر قدر من التحكّم وأوسع نطاق للوصول إلى النماذج وخيارات التدريب المخصّص، ولكنه يتطلّب جهدًا كبيرًا في تطوير الخلفية. مناسبة للاحتياجات المعقدة أو على نطاق واسع أو المخصّصة للغاية
(اخترت حزمة تطوير البرامج (SDK) لبرنامج Firebase AI Logic) ما هو نوع المهام التوليدية وملف الأداء الذي تحتاج إليه؟
- أ) هل تحتاج إلى توازن بين الأداء والتكلفة، ومناسب لتطبيقات المحادثات أو التطبيقات العامة لإنشاء النصوص أو تلخيصها، حيث تكون السرعة مهمة؟
- → استخدِم: حزمة تطوير البرامج (SDK) لبرنامج Firebase AI Logic مع Gemini Flash.
- السبب: محسّنة للسرعة والكفاءة في بيئة Vertex AI المُدارة
- ب) هل تحتاج إلى جودة أعلى وإمكانيات أكبر لإنشاء نصوص معقّدة أو
الاستدلال أو معالجة اللغة الطبيعية المتقدّمة أو اتّباع التعليمات؟
- → استخدام: حزمة تطوير البرامج (SDK) لـ Firebase AI Logic مع Gemini Pro
- السبب: نموذج نصي أكثر فعالية للمهام الصعبة التي يمكن الوصول إليها من خلال Firebase
- ج) هل تحتاج إلى إنشاء صور أو معالجة أو تعديل صور متقدّمة استنادًا إلى طلبات نصية؟
- → استخدام: حزمة تطوير البرامج (SDK) لـ Firebase AI Logic مع Imagen 3
- السبب: نموذج جيل الصور المتطور الذي يمكن الوصول إليه باستخدام بيئة Firebase المُدارة