تم تصميم هذا الدليل لمساعدتك في دمج حلول الذكاء الاصطناعي التوليدي وتعلُّم الآلة (AI/ML) من Google في تطبيقاتك. ويقدّم هذا الدليل إرشادات لمساعدتك في التعرّف على حلول الذكاء الاصطناعي وتعلُّم الآلة المختلفة المتاحة واختيار الحل الأنسب لاحتياجاتك. يهدف هذا المستند إلى مساعدتك في تحديد الأداة المناسبة لك وسبب اختيارها، وذلك من خلال التركيز على احتياجاتك وحالات الاستخدام.
لمساعدتك في اختيار حلول الذكاء الاصطناعي أو تعلُّم الآلة الأنسب لمتطلباتك المحدّدة، يتضمّن هذا المستند دليلًا للحلول. من خلال الإجابة عن سلسلة من الأسئلة حول أهداف مشروعك وقيوده، يرشدك الدليل إلى الأدوات والتكنولوجيات الأنسب.
يساعدك هذا الدليل في اختيار أفضل حلّ للذكاء الاصطناعي لتطبيقك، ويجب أن تأخذ في الاعتبار العوامل التالية: نوع البيانات (نص أو صور أو صوت أو فيديو) ومدى تعقيد المهمة (من التلخيص البسيط إلى المهام المعقّدة التي تتطلّب معرفة متخصّصة) وحجم البيانات (مدخلات قصيرة مقابل مستندات كبيرة). سيساعدك ذلك في تحديد ما إذا كنت تريد استخدام Gemini Nano على جهازك أو الذكاء الاصطناعي المستند إلى السحابة الإلكترونية من Firebase (Gemini Flash أو Gemini Pro أو Imagen).
الاستفادة من ميزة الاستدلال على الجهاز
عند إضافة ميزات تستند إلى الذكاء الاصطناعي (AI) وتعلُّم الآلة (ML) إلى تطبيق Android، يمكنك اختيار طرق مختلفة لتقديمها، إما على الجهاز أو باستخدام السحابة الإلكترونية.
تقدّم الحلول التي تعمل على الجهاز فقط، مثل Gemini Nano، نتائج بدون أي تكلفة إضافية، وتوفّر ميزات محسَّنة للخصوصية، وتتيح استخدامًا موثوقًا به بلا إنترنت، لأنّ بيانات الإدخال تتم معالجتها محليًا. ويمكن أن تكون هذه المزايا حاسمة في بعض حالات الاستخدام، مثل تلخيص الرسائل، ما يجعل المعالجة على الجهاز أولوية عند اختيار الحلول المناسبة.
يتيح لك Gemini Nano تنفيذ الاستدلال مباشرةً على جهاز Android. إذا كنت تعمل على نصوص أو صور أو ملفات صوتية، ابدأ باستخدام واجهات برمجة تطبيقات الذكاء الاصطناعي التوليدي في ML Kit للحصول على حلول جاهزة للاستخدام. تستند واجهات برمجة التطبيقات الخاصة بالذكاء الاصطناعي التوليدي في ML Kit إلى Gemini Nano، وتم تحسينها لأداء مهام معيّنة على الجهاز. تُعدّ واجهات برمجة التطبيقات GenAI في ML Kit مسارًا مثاليًا لإصدار تطبيقاتك، وذلك بفضل واجهتها ذات المستوى الأعلى وقابليتها للتوسّع. تتيح لك هذه الواجهات تنفيذ حالات استخدام لتلخيص النصوص وتدقيقها وإعادة كتابتها، وإنشاء أوصاف للصور، وتنفيذ التعرّف على الكلام.
للاستفادة من حالات استخدام تتجاوز الحالات الأساسية التي توفّرها واجهات برمجة التطبيقات المستندة إلى الذكاء الاصطناعي التوليدي في ML Kit، ننصحك بتجربة إمكانية الوصول التجريبي إلى Gemini Nano. تتيح لك ميزة "الوصول التجريبي إلى Gemini Nano" الوصول بشكل مباشر إلى ميزة "الطلبات المخصّصة" في Gemini Nano.
بالنسبة إلى مهام تعلُّم الآلة التقليدية، يمكنك تنفيذ نماذجك المخصّصة. نوفّر أدوات فعّالة مثل ML Kit وMediaPipe وLiteRT وميزات العرض في Google Play لتبسيط عملية التطوير.
بالنسبة إلى التطبيقات التي تتطلّب حلولاً متخصّصة للغاية، يمكنك استخدام نموذج مخصّص، مثل Gemma أو نموذج آخر مصمّم خصيصًا لحالة الاستخدام المحدّدة. يمكنك تشغيل النموذج مباشرةً على جهاز المستخدم باستخدام LiteRT، الذي يوفّر بنى نماذج مصمَّمة مسبقًا لتحسين الأداء.
يمكنك أيضًا التفكير في إنشاء حلّ مختلط من خلال الاستفادة من النماذج على الجهاز والنماذج المستندة إلى السحابة الإلكترونية.
تستخدم التطبيقات على الأجهزة الجوّالة عادةً نماذج محلية لبيانات نصية صغيرة، مثل محادثات الدردشة أو مقالات المدونات. ومع ذلك، قد يكون من الضروري استخدام حلّ مستند إلى السحابة الإلكترونية يتضمّن نماذج Gemini أكثر فعالية عند التعامل مع مصادر بيانات أكبر (مثل ملفات PDF) أو عند الحاجة إلى معلومات إضافية.
دمج نماذج Gemini المتقدّمة
يمكن لمطوّري تطبيقات Android دمج إمكانات الذكاء الاصطناعي التوليدي المتقدّمة من Google، بما في ذلك نماذج Gemini Pro وGemini Flash وImagen، في تطبيقاتهم باستخدام حزمة تطوير البرامج (SDK) الخاصة بـ Firebase AI Logic. تم تصميم حزمة تطوير البرامج (SDK) هذه لتلبية احتياجات البيانات الأكبر، وتوفّر إمكانات وقدرة على التكيّف موسّعة من خلال إتاحة الوصول إلى نماذج الذكاء الاصطناعي المتعدّدة الوسائط العالية الأداء هذه.
باستخدام حزمة تطوير البرامج (SDK) الخاصة بـ Firebase AI Logic، يمكن للمطوّرين إرسال طلبات من جهة العميل إلى نماذج الذكاء الاصطناعي من Google بأقل جهد ممكن. تنفّذ هذه النماذج، مثل Gemini Pro وGemini Flash، عمليات الاستدلال على السحابة الإلكترونية، وتتيح لتطبيقات Android معالجة مجموعة متنوعة من المدخلات، بما في ذلك الصور والمقاطع الصوتية والفيديوهات والنصوص. يتفوّق Gemini Pro في التفكير المنطقي بشأن المشاكل المعقّدة وتحليل البيانات الشاملة، بينما توفّر سلسلة Gemini Flash سرعة فائقة وقدرة استيعاب كبيرة بما يكفي لمعظم المهام.
حالات استخدام تعلُّم الآلة التقليدي
على الرغم من أنّ الذكاء الاصطناعي التوليدي مفيد في إنشاء المحتوى وتعديله، مثل النصوص والصور والرموز البرمجية، إلا أنّه من الأفضل حلّ العديد من المشاكل الواقعية باستخدام أساليب تعلُّم الآلة التقليدية. تتفوق هذه الطرق الراسخة في المهام التي تتضمن التوقّع والتصنيف والرصد وفهم الأنماط ضمن البيانات الحالية، وغالبًا ما تكون أكثر كفاءة وأقل تكلفة من حيث الحوسبة وأسهل في التنفيذ من النماذج التوليدية.
تقدّم أُطر تعلُّم الآلة التقليدية حلولاً قوية ومحسّنة وعملية في كثير من الأحيان للتطبيقات التي تركّز على تحليل المدخلات أو تحديد الميزات أو تقديم توقّعات استنادًا إلى الأنماط التي تم تعلّمها، بدلاً من إنشاء مخرجات جديدة تمامًا. توفّر أدوات مثل ML Kit وLiteRT وMediaPipe من Google إمكانات فعّالة مصمَّمة خصيصًا لحالات الاستخدام غير التوليدية هذه، لا سيما في بيئات الحوسبة الطرفية والجهاز الجوّال.
بدء دمج تعلُّم الآلة باستخدام ML Kit
توفّر حزمة تعلُّم الآلة (ML Kit) حلولاً جاهزة للاستخدام ومحسَّنة للأجهزة الجوّالة لتنفيذ مهام تعلُّم الآلة الشائعة، ولا تتطلّب أي خبرة سابقة في تعلُّم الآلة. تتيح لك حزمة تطوير البرامج (SDK) السهلة الاستخدام هذه على الأجهزة الجوّالة الاستفادة من خبرة Google في تعلُّم الآلة مباشرةً في تطبيقات Android وiOS، ما يتيح لك التركيز على تطوير الميزات بدلاً من تدريب النماذج وتحسينها. توفّر حزمة ML Kit واجهات برمجة تطبيقات مُنشأة مسبقًا ونماذج جاهزة للاستخدام في ميزات مثل مسح الرموز الشريطية ضوئيًا، والتعرّف على النصوص (OCR)، واكتشاف الوجوه، وتصنيف الصور، واكتشاف العناصر وتتبُّعها، والتعرّف على اللغة، والرد الذكي.
ويتم عادةً تحسين هذه النماذج لتنفيذها على الجهاز، ما يضمن وقت استجابة منخفضًا، ووظائف غير متصلة بالإنترنت، وتعزيز خصوصية المستخدمين لأنّ البيانات غالبًا ما تبقى على الجهاز. اختَر ML Kit لإضافة ميزات تعلُّم الآلة المعروفة بسرعة إلى تطبيقك على الأجهزة الجوّالة بدون الحاجة إلى تدريب النماذج أو طلب ناتج توليدي. وهي مثالية لتحسين التطبيقات بكفاءة باستخدام ميزات "ذكية" من خلال نماذج Google المحسّنة أو عن طريق نشر نماذج TensorFlow Lite مخصّصة.
يمكنك البدء باستخدام أدلتنا الشاملة ومستنداتنا على الموقع الإلكتروني الخاص بمطوّري ML Kit.
تفعيل نماذج تعلُّم الآلة المخصّصة باستخدام LiteRT
للحصول على تحكّم أكبر أو لنشر نماذج تعلُّم الآلة الخاصة بك، استخدِم حزمة مخصّصة لتعلُّم الآلة مبنية على LiteRT وخدمات Google Play. توفّر هذه الحزمة الأساسيات اللازمة لنشر ميزات تعلُّم الآلة عالية الأداء. LiteRT هي مجموعة أدوات محسّنة لتشغيل نماذج TensorFlow بكفاءة على الأجهزة الجوّالة والأجهزة المضمّنة والأجهزة الطرفية التي تتضمّن موارد محدودة، ما يتيح لك تشغيل نماذج أصغر وأسرع بكثير تستهلك قدرًا أقل من الذاكرة والطاقة ومساحة التخزين. تم تحسين وقت تشغيل LiteRT بشكل كبير ليتوافق مع مختلف أدوات تسريع الأجهزة (وحدات معالجة الرسومات ووحدات معالجة الإشارات الرقمية ووحدات المعالجة العصبية) على الأجهزة الطرفية، ما يتيح الاستدلال بزمن انتقال منخفض.
اختَر LiteRT عندما تحتاج إلى نشر نماذج تعلُّم آلة مدرَّبة بكفاءة (عادةً للتصنيف أو الانحدار أو الرصد) على الأجهزة التي تتضمّن قدرة حسابية أو عمر بطارية محدودَين، مثل الهواتف الذكية أو أجهزة إنترنت الأشياء أو وحدات التحكّم الدقيقة. وهو الحلّ المفضّل لنشر نماذج تنبؤية مخصّصة أو عادية على الأجهزة الطرفية حيث تكون السرعة والحفاظ على الموارد في غاية الأهمية.
مزيد من المعلومات حول نشر تعلُّم الآلة باستخدام LiteRT
إضافة إدراك في الوقت الفعلي إلى تطبيقاتك باستخدام MediaPipe
توفّر MediaPipe حلولاً مفتوحة المصدر ومتوافقة مع مختلف الأنظمة الأساسية وقابلة للتخصيص في مجال تعلُّم الآلة، وهي مصمَّمة للوسائط المباشرة والمبثوثة. يمكنك الاستفادة من أدوات محسّنة ومُعدّة مسبقًا لتنفيذ مهام معقّدة، مثل تتبُّع حركة اليد وتقدير الوضعية ورصد شبكة الوجوه ورصد الأجسام، وكلّها تتيح تفاعلاً عالي الأداء وفي الوقت الفعلي حتى على الأجهزة الجوّالة.
يمكن تخصيص مسارات MediaPipe المستندة إلى الرسوم البيانية بشكل كبير، ما يتيح لك تصميم حلول لتطبيقات Android وiOS والويب وأجهزة الكمبيوتر المكتبي وتطبيقات الخلفية. اختَر MediaPipe عندما يحتاج تطبيقك إلى فهم بيانات أجهزة الاستشعار المباشرة والردّ عليها على الفور، خاصةً بث الفيديو، لحالات الاستخدام مثل التعرّف على الإيماءات أو تأثيرات الواقع المعزّز أو تتبُّع اللياقة البدنية أو التحكّم في الصور الرمزية، وكل ذلك يركّز على تحليل المدخلات وتفسيرها.
استكشِف الحلول وابدأ في الإنشاء باستخدام MediaPipe.
اختيار طريقة: على الجهاز أو في السحابة الإلكترونية
عند دمج ميزات الذكاء الاصطناعي/تعلُّم الآلة في تطبيق Android، يجب اتخاذ قرار مبكر بشأن ما إذا كان سيتم إجراء المعالجة مباشرةً على جهاز المستخدم أو في السحابة الإلكترونية. تتيح أدوات مثل ML Kit وGemini Nano وTensorFlow Lite إمكانات على الجهاز، بينما يمكن أن توفّر واجهات برمجة التطبيقات السحابية من Gemini مع Firebase AI Logic معالجة قوية مستندة إلى السحابة الإلكترونية. يعتمد اتّخاذ القرار المناسب على مجموعة متنوّعة من العوامل الخاصة بحالة الاستخدام واحتياجات المستخدمين.
ضَع في اعتبارك الجوانب التالية لتوجيه قرارك:
- الاتصال بالإنترنت وإمكانية الاستخدام بلا اتصال بالإنترنت: إذا كان تطبيقك يحتاج إلى العمل بشكل موثوق بدون اتصال بالإنترنت، تكون الحلول على الجهاز، مثل Gemini Nano، مثالية. تتطلّب المعالجة المستندة إلى السحابة الإلكترونية بطبيعتها الوصول إلى الشبكة.
- خصوصية البيانات: في حالات الاستخدام التي يجب فيها أن تظل بيانات المستخدم على الجهاز لأسباب تتعلّق بالخصوصية، توفّر المعالجة على الجهاز ميزة واضحة من خلال الاحتفاظ بالمعلومات الحسّاسة على الجهاز.
- إمكانات النموذج ومدى تعقيد المهمة: غالبًا ما تكون النماذج المستندة إلى السحابة الإلكترونية أكبر حجمًا وأكثر فعالية ويتم تعديلها بشكل متكرر، ما يجعلها مناسبة لمهام الذكاء الاصطناعي المعقّدة جدًا أو عند معالجة مدخلات أكبر حيث تكون جودة المخرجات العالية والإمكانات الواسعة أمرًا بالغ الأهمية. قد تتم معالجة المهام الأبسط من خلال النماذج التي تعمل على الجهاز.
- اعتبارات التكلفة: تستخدم واجهات برمجة التطبيقات المستندة إلى السحابة الإلكترونية عادةً نظام التسعير حسب الاستخدام، ما يعني أنّ التكاليف يمكن أن تتناسب مع عدد الاستنتاجات أو كمية البيانات التي تتم معالجتها. على الرغم من أنّ الاستدلال على الجهاز لا يتضمّن عادةً رسومًا مباشرة لكل استخدام، إلا أنّه يتضمّن تكاليف تطوير ويمكن أن يؤثر في موارد الجهاز، مثل عمر البطارية والأداء العام.
- موارد الجهاز: تستهلك النماذج التي تعمل على الجهاز مساحة تخزين على جهاز المستخدم. من المهم أيضًا معرفة مدى توافق الأجهزة مع نماذج معيّنة تعمل على الجهاز فقط، مثل Gemini Nano، لضمان إمكانية الجمهور المستهدَف استخدام الميزات.
- الضبط الدقيق والتخصيص: إذا كنت بحاجة إلى إمكانية ضبط النماذج بدقة لتناسب حالة الاستخدام المحدّدة، توفّر الحلول المستندة إلى السحابة الإلكترونية بشكل عام مرونة أكبر وخيارات أكثر شمولاً للتخصيص.
- التوافق مع مختلف المنصات: إذا كان من المهم توفير ميزات الذكاء الاصطناعي نفسها على منصات متعددة، بما في ذلك iOS، يجب الانتباه إلى أنّ بعض الحلول المتوفرة على الجهاز فقط، مثل Gemini Nano، قد لا تكون متاحة بعد على جميع أنظمة التشغيل.
من خلال التفكير مليًا في متطلبات حالة الاستخدام والخيارات المتاحة، يمكنك العثور على حلّ الذكاء الاصطناعي/تعلُّم الآلة المثالي لتحسين تطبيق Android وتقديم تجارب ذكية ومخصّصة للمستخدمين.
دليل حلول الذكاء الاصطناعي وتعلُّم الآلة
يمكن أن يساعدك دليل الحلول هذا في تحديد أدوات المطوّرين المناسبة لدمج تقنيات الذكاء الاصطناعي وتعلُّم الآلة في مشاريع Android.
ما هو الهدف الأساسي من ميزة الذكاء الاصطناعي؟
- أ) إنشاء محتوى جديد (نصوص، أوصاف صور)، أو إجراء معالجة بسيطة للنصوص (تلخيص أو تدقيق أو إعادة كتابة النص)؟ → الانتقال إلى الذكاء الاصطناعي التوليدي
- ب) هل يتم تحليل البيانات أو المدخلات الحالية لأغراض التوقّع أو التصنيف أو الرصد أو فهم الأنماط أو معالجة عمليات البث في الوقت الفعلي (مثل الفيديو أو الصوت)؟ → الانتقال إلى التعلم الآلي التقليدي والإدراك
تعلُّم الآلة التقليدي والإدراك
عليك تحليل البيانات المدخلة أو تحديد الميزات أو تقديم توقّعات استنادًا إلى الأنماط التي تم تعلّمها، بدلاً من إنشاء ناتج جديد تمامًا.
ما هي المهمة المحدّدة التي تقوم بها؟
- أ) هل تحتاج إلى دمج سريع لميزات شائعة ومُعدّة مسبقًا لتعلُّم الآلة على الأجهزة الجوّالة؟
(مثل فحص الرموز الشريطية والتعرّف على النصوص (OCR) والتعرّف على الوجوه وتصنيف الصور والتعرّف على العناصر وتتبُّعها وتحديد اللغة والردود السريعة الأساسية)
- → الاستخدام: حزمة تعلُّم الآلة (واجهات برمجة التطبيقات التقليدية)
- السبب: توفير أسهل عملية دمج للمهام الشائعة في تعلُّم الآلة على الأجهزة الجوّالة، وغالبًا ما تكون هذه المهام محسّنة للاستخدام على الأجهزة (زمن استجابة منخفض، وإمكانية الاستخدام بلا إنترنت، والحفاظ على الخصوصية).
- ب) هل تحتاج إلى معالجة بيانات البث المباشر (مثل الفيديو أو الصوت) لتنفيذ مهام الإدراك؟ (مثلاً، تتبُّع حركة اليد، وتقدير الوضعية، وشبكة الوجوه،
والتعرّف على العناصر وتقسيمها في الوقت الفعلي في الفيديو)
- → الاستخدام: MediaPipe
- السبب: إطار عمل متخصص في خطوط نقل البيانات عالية الأداء وفي الوقت الفعلي على مختلف المنصات.
- ج) هل تحتاج إلى تشغيل نموذج تعلُّم الآلة المدرَّب والمخصّص بكفاءة (مثلاً، لأغراض التصنيف أو الانحدار أو الرصد) على الجهاز مع إعطاء الأولوية للأداء والاستخدام المنخفض للموارد؟
- → الاستخدام: LiteRT (TensorFlow Lite Runtime)
- السبب: توفير وقت تشغيل محسّن لنشر النماذج المخصّصة بكفاءة على الأجهزة الجوّالة وأجهزة الحافة (حجم صغير، واستدلال سريع، وتسريع الأجهزة).
- د) هل تحتاج إلى تدريب نموذج تعلُّم آلة مخصّص لأداء مهمة معيّنة؟
- ← الاستخدام: LiteRT (وقت تشغيل TensorFlow Lite) + تدريب النماذج المخصّصة
- السبب: توفّر هذه الخدمة الأدوات اللازمة لتدريب النماذج المخصّصة ونشرها، وهي نماذج محسّنة للأجهزة الجوّالة وأجهزة الحافة.
- هـ) هل تحتاج إلى تصنيف متقدّم للمحتوى أو تحليل المشاعر أو ترجمة العديد من اللغات التي تتضمّن اختلافات دقيقة؟
- حدِّد ما إذا كانت نماذج تعلُّم الآلة التقليدية (التي يمكن نشرها باستخدام LiteRT أو السحابة الإلكترونية) مناسبة، أو ما إذا كانت معالجة اللغة الطبيعية المتقدّمة تتطلّب نماذج توليدية (ارجع إلى "البداية"، واختَر "أ"). للتصنيف أو تحليل المشاعر أو الترجمة المستندة إلى السحابة الإلكترونية:
- → الحلّ: استخدام حلول مستنِدة إلى السحابة الإلكترونية (مثل Google Cloud Natural Language API وGoogle Cloud Translation API (التي يمكن الوصول إليها باستخدام خادم خلفي مخصّص أو Vertex AI) (أولوية أقل من الخيارات المتاحة على الجهاز إذا كان الجهاز غير متصل بالإنترنت أو إذا كانت الخصوصية هي الأولوية).
- السبب: توفّر الحلول المستندة إلى السحابة الإلكترونية نماذج فعّالة وتتيح استخدام العديد من اللغات، ولكنها تتطلّب الاتصال بالإنترنت وقد تتكبّد تكاليف.
الذكاء الاصطناعي التوليدي
عليك إنشاء محتوى جديد أو تلخيصه أو إعادة كتابته أو تنفيذ مهام معقّدة تتطلّب فهمًا أو تفاعلاً.
هل تحتاج إلى أن يعمل الذكاء الاصطناعي بلا إنترنت، أو إلى تحقيق أقصى قدر من خصوصية البيانات (الاحتفاظ ببيانات المستخدم على الجهاز)، أو هل تريد تجنُّب تكاليف الاستدلال على السحابة الإلكترونية؟
- أ) نعم، من المهم أن تكون الخدمة غير متصلة بالإنترنت أو توفّر الحد الأقصى من الخصوصية أو لا تتطلّب أي تكلفة على السحابة الإلكترونية.
- → الانتقال إلى الذكاء الاصطناعي التوليدي على الجهاز فقط
- ب) لا، الاتصال متاح ومقبول، وإمكانيات السحابة الإلكترونية وقابلية التوسّع أكثر أهمية، أو تتطلّب ميزات معيّنة السحابة الإلكترونية.
- → الانتقال إلى الذكاء الاصطناعي التوليدي على السحابة الإلكترونية
الذكاء الاصطناعي التوليدي على الجهاز (باستخدام Gemini Nano)
ملاحظات: تتطلّب أجهزة Android متوافقة، وتتوفّر إمكانية محدودة للاستخدام على أجهزة iOS، وهناك حدود معيّنة للرموز المميزة (1024 رمزًا في الطلب، و4096 رمزًا في السياق)، كما أنّ النماذج أقل فعالية من النماذج السحابية.
هل تتطابق حالة الاستخدام على وجه التحديد مع المهام المبسّطة التي توفّرها واجهات برمجة التطبيقات المستندة إلى الذكاء الاصطناعي التوليدي في ML Kit؟ (تلخيص النص أو تدقيقه أو إعادة كتابته أو إنشاء أوصاف للصور أو التعرّف على الكلام) وهل حدود الرموز المميزة كافية؟
- أ) نعم:
- → الاستخدام: واجهات برمجة تطبيقات الذكاء الاصطناعي التوليدي في ML Kit (مقدّمة من Gemini Nano)
- السبب: هذه هي أسهل طريقة لدمج مهام توليدية محددة وشائعة على الجهاز، وهي الحلّ الذي يحظى بأعلى أولوية على الجهاز.
- ب) لا (تحتاج إلى طلبات أو مهام أكثر مرونة تتجاوز واجهات برمجة التطبيقات المحدّدة للذكاء الاصطناعي التوليدي في ML Kit، ولكنك لا تزال تريد التنفيذ على الجهاز ضمن إمكانات Nano):
- → استخدام: الوصول التجريبي إلى Gemini Nano
- السبب: يوفّر إمكانات طلب مفتوح على الجهاز لحالات استخدام تتجاوز واجهات برمجة التطبيقات المنظَّمة في ML Kit GenAI، مع مراعاة قيود Nano.
الذكاء الاصطناعي التوليدي المستند إلى السحابة الإلكترونية
تستخدم نماذج أكثر فعالية، وتتطلّب الاتصال بالإنترنت، وتتضمّن عادةً تكاليف استنتاج، وتوفّر نطاقًا أوسع من الأجهزة وتوافقًا أسهل بين الأنظمة الأساسية (Android وiOS).
ما هي أولويتك: سهولة الدمج في Firebase أو الحد الأقصى من المرونة والتحكّم؟
- أ) هل تفضّل سهولة الدمج وتجربة واجهة برمجة تطبيقات مُدارة، ومن المحتمل أنّك تستخدم Firebase حاليًا؟
- → استخدام: حزمة تطوير البرامج (SDK) الخاصة بـ Firebase AI Logic → الانتقال إلى Firebase AI Logic
- ب) هل تحتاج إلى أقصى قدر من المرونة والوصول إلى أكبر مجموعة من النماذج (بما في ذلك النماذج التابعة لجهات خارجية أو المخصّصة) وإمكانية الضبط الدقيق المتقدّم، وهل أنت على استعداد لإدارة عملية الدمج الخلفية بنفسك (أكثر تعقيدًا)؟
- → الاستخدام: Gemini API مع خادم سحابي مخصّص (باستخدام Google Cloud Platform)
- السبب: يوفّر هذا الخيار أعلى مستوى من التحكّم وإمكانية الوصول إلى أكبر عدد من النماذج وخيارات التدريب المخصّص، ولكنّه يتطلّب جهدًا كبيرًا في تطوير الخلفية. مناسبة للاحتياجات المعقّدة أو الواسعة النطاق أو المخصّصة للغاية
(لقد اخترت حزمة تطوير البرامج (SDK) الخاصة بـ Firebase AI Logic) ما هو نوع المهمة التوليدية وملف الأداء الذي تحتاجه؟
- أ) هل تحتاج إلى توازن بين الأداء والتكلفة، وهو مناسب لتطبيقات إنشاء النصوص العامة أو تلخيصها أو المحادثة التي تكون فيها السرعة مهمة؟
- → الاستخدام: حزمة تطوير البرامج (SDK) الخاصة بـ Firebase AI Logic مع Gemini Flash
- السبب: تم تحسينها لتحقيق السرعة والكفاءة ضمن البيئة المُدارة في Vertex AI.
- ب) هل تحتاج إلى جودة وقدرات أعلى لإنشاء نصوص معقّدة أو التحليل المنطقي أو فهم اللغة الطبيعية المتقدّم أو اتّباع التعليمات؟
- → الاستخدام: حزمة تطوير البرامج (SDK) الخاصة بـ Firebase AI Logic مع Gemini Pro
- السبب: نموذج نصي أكثر فعالية لإنجاز المهام الصعبة، ويمكن الوصول إليه من خلال Firebase.
- ج) هل تحتاج إلى إنشاء صور معقّدة أو فهم الصور أو التلاعب بها بشكل متقدّم استنادًا إلى طلبات نصية؟
- → الاستخدام: حزمة تطوير البرامج (SDK) الخاصة بـ Firebase AI Logic مع Imagen 3
- السبب: نموذج متطوّر لإنشاء الصور يمكن الوصول إليه باستخدام بيئة Firebase المُدارة.