العثور على حلّ الذكاء الاصطناعي/تعلُّم الآلة المناسب لتطبيقك

تم تصميم هذا الدليل لمساعدتك في دمج حلول الذكاء الاصطناعي وتعلُّم الآلة التوليدية من Google في تطبيقاتك. ويقدّم إرشادات لمساعدتك في التعرّف على حلول الذكاء الاصطناعي وتعلُّم الآلة المختلفة المتاحة واختيار الحلّ الذي يناسب احتياجاتك على أفضل وجه. الهدف من هذا المستند هو مساعدتك في تحديد الأداة التي يجب استخدامها والسبب وراء ذلك، من خلال التركيز على احتياجاتك وحالات استخدامك.

لمساعدتك في اختيار حلّ الذكاء الاصطناعي وتعلُّم الآلة الأنسب لمتطلباتك المحدّدة ، يتضمّن هذا المستند دليل حلول. من خلال الإجابة عن سلسلة من الأسئلة حول أهداف مشروعك وقيوده، يرشدك الدليل إلى الأدوات والتقنيات الأكثر ملاءمة.

يساعدك هذا الدليل في اختيار أفضل حلّ ذكاء اصطناعي لتطبيقك. من المهم أخذ العوامل التالية في الاعتبار: نوع البيانات (نص أو صور أو ملفات صوتية أو فيديوهات) ومدى تعقيد المهمة (من التلخيص البسيط إلى المهام المعقّدة التي تتطلب معرفة متخصّصة) وحجم البيانات (بيانات الإدخال القصيرة مقابل المستندات الكبيرة). سيساعدك ذلك في تحديد ما إذا كنت ستستخدم Gemini Nano على جهازك أو الذكاء الاصطناعي المستند إلى السحابة الإلكترونية من Firebase (‫Gemini Flash أو Gemini Pro أو Imagen).

مخطط انسيابي لاتخاذ القرار بشأن حالات استخدام الذكاء الاصطناعي التوليدي تشمل المعايير طريقة العرض
           (نص أو صورة مقابل صوت أو فيديو أو إنشاء الصور)، والتعقيد
           (تلخيص أو إعادة كتابة مقابل معرفة المجال)، وقدرة استيعاب
           (إدخال/إخراج قصير مقابل مستندات/وسائط شاملة)، ما يؤدي إلى
           الذكاء الاصطناعي التوليدي على الجهاز فقط (Gemini Nano) أو Firebase AI Logic (‫Gemini
           Flash وPro وImagen).
الشكل 1: يمثّل هذا الرسم التوضيحي دليل حلول عالي المستوى لمساعدتك في العثور على حلّ الذكاء الاصطناعي وتعلُّم الآلة المناسب لتطبيق Android. للحصول على بيان تفصيلي أكثر لخيارات الذكاء الاصطناعي وتعلُّم الآلة، يُرجى الرجوع إلى دليل الحلول الذي يظهر لاحقًا في هذا المستند.

الاستفادة من قوة الاستدلال على الجهاز فقط

عند إضافة ميزات الذكاء الاصطناعي وتعلُّم الآلة إلى تطبيق Android، يمكنك اختيار طرق مختلفة لتقديمها، إما على الجهاز أو باستخدام السحابة الإلكترونية.

تقدّم الحلول التي تعمل على الجهاز فقط، مثل Gemini Nano، نتائج بدون أي تكلفة إضافية، وتوفّر خصوصية محسّنة للمستخدم، وتوفّر وظائف موثوقة بلا إنترنت لأنّ بيانات الإدخال تتم معالجتها محليًا. يمكن أن تكون هذه المزايا ضرورية في حالات استخدام معيّنة، مثل تلخيص الرسائل، ما يجعل الحلول التي تعمل على الجهاز فقط أولوية عند اختيار الحلول المناسبة.

يتيح لك Gemini Nano إجراء الاستدلال مباشرةً على جهاز يعمل بنظام التشغيل Android. إذا كنت تعمل على النصوص أو الصور أو الملفات الصوتية، ابدأ بواجهات برمجة التطبيقات GenAI من ML Kit للحصول على حلول جاهزة. تستنِد حزمة تعلّم الآلة GenAI APIs إلى Gemini Nano، وتستفيد من AICore كخدمة تابعة لنظام التشغيل، وتم تحسينها لمهام معيّنة على الجهاز فقط. تُعدّ واجهات برمجة التطبيقات GenAI من حزمة تعلّم الآلة مسارًا مثاليًا للإصدار العلني لتطبيقاتك نظرًا إلى واجهتها العالية المستوى وقابليتها للتوسّع. تتيح لك هذه الواجهات إرسال طلبات باللغة الطبيعية تتضمّن بيانات إدخال نصية وصورية، ما يتيح مجموعة متنوعة من حالات الاستخدام، مثل فهم الصور والترجمات القصيرة والتلخيصات الموجّهة وغير ذلك.

بالنسبة إلى مهام تعلُّم الآلة التقليدية، يمكنك تنفيذ نماذجك المخصّصة. نوفّر أدوات قوية، مثل حزمة تعلّم الآلة، MediaPipe، LiteRT وميزات التسليم على Google Play، لتبسيط عملية التطوير.

بالنسبة إلى التطبيقات التي تتطلب حلولاً متخصّصة للغاية، يمكنك استخدام نموذجك المخصّص ، مثل Gemma أو نموذج آخر مصمّم خصيصًا لحالة استخدامك المحدّدة. يمكنك تشغيل نموذجك مباشرةً على جهاز المستخدم باستخدام LiteRT، الذي يوفّر بُنى نماذج مصمّمة مسبقًا لتحقيق الأداء الأمثل.

يمكنك أيضًا التفكير في إنشاء حلّ مختلط من خلال الاستفادة من النماذج التي تعمل على الجهاز فقط والنماذج المستندة إلى السحابة الإلكترونية.

تستخدم تطبيقات الأجهزة الجوّالة عادةً النماذج المحلية لبيانات النص الصغيرة، مثل محادثات الدردشة أو مقالات المدونات. ومع ذلك، بالنسبة إلى مصادر البيانات الأكبر (مثل ملفات PDF) أو عندما تكون هناك حاجة إلى معرفة إضافية، قد يكون من الضروري استخدام حلّ مستند إلى السحابة الإلكترونية يتضمّن نماذج Gemini أكثر فعالية.

دمج نماذج Gemini المتقدّمة

يمكن لمطوّري تطبيقات Android دمج إمكانات الذكاء الاصطناعي التوليدي المتقدّمة من Google، بما في ذلك نماذج Gemini Pro وGemini Flash وImagen القوية، في تطبيقاتهم باستخدام حزمة تطوير البرامج (SDK) الخاصة بـ Firebase AI Logic. تم تصميم حزمة تطوير البرامج (SDK) هذه لتلبية احتياجات البيانات الأكبر، وتوفّر إمكانات محسّنة وقابلية للتكيّف من خلال إتاحة الوصول إلى نماذج الذكاء الاصطناعي المتعددة الوسائط العالية الأداء هذه.

باستخدام حزمة تطوير البرامج (SDK) الخاصة بـ Firebase AI Logic، يمكن للمطوّرين إجراء طلبات من جهة العميل إلى نماذج الذكاء الاصطناعي من Google بأقل جهد ممكن. تُجري هذه النماذج، مثل Gemini Pro وGemini Flash، الاستدلال في السحابة الإلكترونية وتتيح لتطبيقات Android معالجة مجموعة متنوعة من بيانات الإدخال، بما في ذلك الصور والملفات الصوتية والفيديوهات والنصوص. يتفوّق Gemini Pro في الاستدلال على المشاكل المعقّدة وتحليل البيانات الواسعة النطاق، بينما تقدّم سلسلة Gemini Flash سرعة فائقة وقدرة استيعاب كبيرة بما يكفي لمعظم المهام.

حالات استخدام تعلُّم الآلة التقليدي

على الرغم من أنّ الذكاء الاصطناعي التوليدي مفيد لإنشاء المحتوى وتعديله، مثل النصوص والصور والرموز البرمجية، من الأفضل حلّ العديد من المشاكل في العالم الحقيقي باستخدام تقنيات تعلُّم الآلة التقليدية. تتفوّق هذه الطرق الثابتة في المهام التي تتضمّن التوقّع والتصنيف والرصد وفهم الأنماط في البيانات الحالية، غالبًا بكفاءة أكبر وتكلفة حوسبة أقل وتنفيذ أبسط من النماذج التوليدية.

تقدّم أُطر عمل تعلُّم الآلة التقليدية حلولاً قوية ومحسّنة وغالبًا ما تكون أكثر عملية للتطبيقات التي تركّز على تحليل بيانات الإدخال أو تحديد الميزات أو إجراء التوقّعات استنادًا إلى الأنماط التي تم تعلّمها، بدلاً من إنشاء ناتج جديد تمامًا. توفّر أدوات مثل ML Kit وLiteRT وMediaPipe من Google إمكانات قوية مصمّمة خصيصًا لحالات الاستخدام غير التوليدية هذه، لا سيما في بيئات الحوسبة على الأجهزة الجوّالة والحوسبة الطرفية.

بدء عملية دمج تعلُّم الآلة باستخدام حزمة تعلّم الآلة

تقدّم حزمة تعلّم الآلة حلولاً جاهزة للإنتاج ومحسّنة للأجهزة الجوّالة لمهام تعلُّم الآلة الشائعة، بدون الحاجة إلى أي خبرة سابقة في تعلُّم الآلة. تضع حزمة تطوير البرامج (SDK) للأجهزة الجوّالة سهلة الاستخدام هذه خبرة Google في تعلُّم الآلة مباشرةً في تطبيقاتك على Android وiOS، ما يتيح لك التركيز على تطوير الميزات بدلاً من تدريب النماذج وتحسينها. يوفّر ML Kit واجهات برمجة تطبيقات جاهزة ونماذج جاهزة للاستخدام لميزات مثل فحص الرموز الشريطية والتعرّف على النصوص (OCR) والتعرّف على الوجوه وتصنيف الصور ورصد العناصر وتتبُّعها وتحديد اللغة والرد السريع.

عادةً ما يتم تحسين هذه النماذج للتنفيذ على الجهاز فقط، ما يضمن وقت استجابة منخفضًا ووظائف بلا إنترنت وخصوصية محسّنة للمستخدم لأنّ البيانات غالبًا ما تظل على الجهاز. يمكنك اختيار حزمة تعلّم الآلة لإضافة ميزات تعلُّم الآلة الثابتة بسرعة إلى تطبيقك على الأجهزة الجوّالة بدون الحاجة إلى تدريب النماذج أو طلب ناتج توليدي. يُعدّ هذا الخيار مثاليًا لتحسين التطبيقات بكفاءة باستخدام إمكانات "ذكية" باستخدام نماذج Google المحسّنة أو من خلال نشر نماذج مخصّصة من TensorFlow Lite.

يمكنك البدء باستخدام أدلتنا ومستنداتنا الشاملة على موقع ML Kit الإلكتروني للمطوّرين.

نشر نماذج تعلُّم الآلة المخصّصة باستخدام LiteRT

للحصول على تحكّم أكبر أو لنشر نماذج تعلُّم الآلة الخاصة بك، استخدِم مجموعة أدوات مخصّصة لتعلُّم الآلة تم إنشاؤها استنادًا إلى LiteRT و"خدمات Google Play". توفّر هذه المجموعة العناصر الأساسية لنشر ميزات تعلُّم الآلة العالية الأداء. ‫LiteRT هي مجموعة أدوات محسّنة لتشغيل نماذج TensorFlow بكفاءة على الأجهزة الجوّالة والأجهزة المضمّنة والأجهزة الطرفية التي تعاني من قيود على الموارد، ما يمنحك القدرة على تشغيل نماذج أصغر وأسرع بكثير تستهلك ذاكرة أقل وطاقة أقل ومساحة تخزين أقل. تم تحسين وقت تشغيل LiteRT بشكل كبير لمختلف مسرّعات الأجهزة (وحدات معالجة الرسومات ووحدات معالجة الإشارات الرقمية ووحدات المعالجة العصبية) على الأجهزة الطرفية، ما يتيح الاستدلال بوقت استجابة منخفض.

يمكنك اختيار LiteRT عندما تحتاج إلى نشر نماذج تعلُّم الآلة المدرَّبة بكفاءة (عادةً للتصنيف أو الانحدار أو الرصد) على الأجهزة التي تتضمّن قدرة حوسبة محدودة أو عمر بطارية محدود، مثل الهواتف الذكية أو أجهزة إنترنت الأشياء أو وحدات التحكّم الدقيقة. إنّه الحلّ المفضّل لنشر النماذج التنبؤية المخصّصة أو العادية على الأجهزة الطرفية حيث تكون السرعة والحفاظ على الموارد في غاية الأهمية.

مزيد من المعلومات عن نشر نماذج تعلُّم الآلة باستخدام LiteRT.

إنشاء إدراك في الوقت الفعلي في تطبيقاتك باستخدام MediaPipe

يوفّر MediaPipe حلول تعلُّم آلة مفتوحة المصدر من عدّة منصات وقابلة للتخصيص ومصمّمة للوسائط المباشرة والمتدفقة. يمكنك الاستفادة من الأدوات المحسّنة والجاهزة للاستخدام للمهام المعقّدة، مثل تتبُّع اليد وتقدير الوضعية ورصد شبكة الوجه ورصد العناصر، ما يتيح التفاعل عالي الأداء وفي الوقت الفعلي حتى على الأجهزة الجوّالة.

تتميّز مسارات MediaPipe المستندة إلى الرسم البياني بأنّها قابلة للتخصيص بدرجة كبيرة، ما يتيح لك تصميم حلول لتطبيقات Android وiOS والويب وأجهزة سطح المكتب والتطبيقات المستندة إلى الخادم. يمكنك اختيار MediaPipe عندما يحتاج تطبيقك إلى فهم بيانات جهاز الاستشعار المباشرة والتفاعل معها على الفور، لا سيما بث الفيديو، لحالات استخدام مثل التعرّف على الإيماءات أو تأثيرات الواقع المعزّز أو تتبُّع اللياقة البدنية أو التحكّم في الصورة الرمزية، وكل ذلك يركّز على تحليل بيانات الإدخال وتفسيرها.

يمكنك استكشاف الحلول والبدء في الإنشاء باستخدام MediaPipe.

دمج تطبيقك مع مساعد الجهاز

في حين أنّ عملية دمج الذكاء الاصطناعي التقليدية تركّز على "إضافة الذكاء الاصطناعي إلى تطبيقك"، يمكنك أيضًا "إضافة تطبيقك إلى الذكاء الاصطناعي". من خلال المساهمة بوظائف تطبيقك في ميزات الذكاء الاصطناعي على مستوى النظام، يمكنك السماح للمساعدين على مستوى النظام (مثل Gemini) باكتشاف إمكانات تطبيقك واستخدامها بشكل تلقائي. AppFunctions هي الطريقة الأساسية لتحقيق هذا التكامل، ما يتيح لتطبيقك أن يصبح مشاركًا في نظام الذكاء الاصطناعي الأوسع نطاقًا على Android.

اختيار نهج

عند دمج الذكاء الاصطناعي لتحسين تطبيق Android، يجب أن تأخذ في الاعتبار ثلاثة نُهج أساسية: إجراء المعالجة على الجهاز فقط أو الاستفادة من النماذج المستندة إلى السحابة الإلكترونية أو إضافة وظائف تطبيقك إلى الذكاء الاصطناعي على مستوى النظام. تتيح أدوات مثل ML Kit وGemini Nano وLiteRT إمكانات على الجهاز فقط، بينما توفّر واجهات برمجة تطبيقات Gemini المستندة إلى السحابة الإلكترونية مع Firebase AI Logic معالجة قوية مستندة إلى السحابة الإلكترونية. تمثّل AppFunctions مسارًا ثالثًا، ما يتيح لك "إضافة تطبيقك إلى الذكاء الاصطناعي" من خلال إتاحة ميزاته بشكل تلقائي للنظام.

من المهم أخذ العوامل التالية في الاعتبار عند اختيار النهج:

صيغة العوامل الحلول التي تعمل على الجهاز فقط الحلول المستندة إلى السحابة الإلكترونية
الاتصال بالإنترنت والوظائف بلا إنترنت مثالية للاستخدام بلا إنترنت، وتعمل بدون اتصال بالشبكة تتطلب اتصالاً بالشبكة للتواصل مع الخوادم البعيدة
خصوصية البيانات تتم معالجة البيانات الحساسة وتخزينها محليًا على الجهاز. يتم نقل البيانات إلى السحابة الإلكترونية، ما يتطلب الثقة في أمان مقدِّم الخدمة.
إمكانية العثور على المحتوى ومدى الوصول إلى الجمهور يتيح التكامل المباشر مع نظام التشغيل (AppFunctions) للمساعدين اكتشاف الميزات. عادةً ما يقتصر الاكتشاف على واجهة المستخدم الداخلية للتطبيق أو عمليات دمج واجهات برمجة تطبيقات معيّنة.
إمكانات النموذج تم تحسينها لوقت الاستجابة المنخفض والمهام المحدّدة والأقل كثافة. نماذج قوية قادرة على التعامل مع التعقيد العالي و بيانات الإدخال الكبيرة.
اعتبارات التكلفة لا يتم فرض أي رسوم مباشرةً لكل استخدام، ويتم استخدام أجهزة الجهاز الحالية. عادةً ما يتضمّن ذلك تسعيرًا مستندًا إلى الاستخدام أو تكاليف اشتراك مستمرة.
موارد الجهاز يتم استخدام مساحة التخزين المحلية وذاكرة الوصول العشوائي وعمر البطارية. تأثير محلي ضئيل، ويتم نقل المهام الصعبة إلى الخادم.
ضبط النماذج مرونة محدودة، وتخضع لإمكانات الأجهزة المحلية مرونة أكبر للتخصيص الواسع النطاق و الضبط على نطاق واسع.
الاتّساق على مستوى المنصات قد يختلف مدى توفّر الميزة حسب نظام التشغيل ودعم الأجهزة. تجربة متّسقة على أي منصة يمكنها الوصول إلى الإنترنت

من خلال دراسة متطلبات حالة استخدامك والخيارات المتاحة بعناية، يمكنك العثور على حلّ الذكاء الاصطناعي وتعلُّم الآلة المثالي لتحسين تطبيق Android وتقديم تجارب ذكية ومخصّصة لمستخدميك.


دليل حلول الذكاء الاصطناعي وتعلُّم الآلة

يمكن أن يساعدك دليل الحلول هذا في تحديد أدوات المطوّرين المناسبة لدمج تكنولوجيات الذكاء الاصطناعي وتعلُّم الآلة في مشاريعك على Android.

ما هو الهدف الأساسي من ميزة الذكاء الاصطناعي؟

  • أ) إنشاء محتوى جديد (نصوص أو أوصاف صور) أو إجراء معالجة بسيطة للنصوص (تلخيص النصوص أو تدقيقها أو إعادة كتابتها)؟ ‫→ الانتقال إلى الذكاء الاصطناعي التوليدي
  • ب) تحليل البيانات أو بيانات الإدخال الحالية للتوقّع أو التصنيف أو الرصد أو فهم الأنماط أو معالجة البث في الوقت الفعلي (مثل الفيديو أو الملفات الصوتية)؟ ‫→ الانتقال إلى تعلُّم الآلة التقليدي والإدراك
  • ج) تحسين وظائف تطبيقك للدمج مع ميزات الذكاء الاصطناعي على مستوى النظام (إضافة تطبيقك إلى الذكاء الاصطناعي)؟ ‫→ الانتقال إلى إضافة تطبيقك إلى الذكاء الاصطناعي

تعلُّم الآلة التقليدي والإدراك

تحتاج إلى تحليل بيانات الإدخال أو تحديد الميزات أو إجراء التوقّعات استنادًا إلى الأنماط التي تم تعلّمها، بدلاً من إنشاء ناتج جديد تمامًا.

ما هي المهمة المحدّدة التي تجريها؟

  • أ) هل تحتاج إلى دمج سريع لميزات تعلُّم الآلة الشائعة والجاهزة للاستخدام على الأجهزة الجوّالة؟ (مثل فحص الرموز الشريطية والتعرّف على النصوص (OCR) والتعرّف على الوجوه وتصنيف الصور ورصد العناصر وتتبُّعها وتحديد اللغة والرد السريع الأساسي)
    • ‫→ استخدِم: حزمة تعلّم الآلة (واجهات برمجة التطبيقات التقليدية)
    • _السبب_: أسهل عملية دمج لـ مهام تعلُّم الآلة الثابتة على الأجهزة الجوّالة، وغالبًا ما يتم تحسينها للاستخدام على الجهاز فقط (وقت استجابة منخفض ، بلا إنترنت، الخصوصية).
  • ب) هل تحتاج إلى معالجة بيانات البث في الوقت الفعلي (مثل الفيديو أو الملفات الصوتية) لمهام الإدراك؟ (مثل تتبُّع اليد وتقدير الوضعية وشبكة الوجه ورصد العناصر وتقسيمها في الوقت الفعلي في الفيديو)
    • ‫→ استخدِم: MediaPipe
    • السبب: إطار عمل متخصّص في مسارات الإدراك العالية الأداء وفي الوقت الفعلي على منصات مختلفة.
  • ج) هل تحتاج إلى تشغيل نموذج تعلُّم الآلة المخصّص الذي درّبته بكفاءة (مثل التصنيف أو الانحدار أو الرصد) على الجهاز، مع إعطاء الأولوية للأداء وانخفاض استخدام الموارد؟
    • ‫→ استخدِم: LiteRT (وقت تشغيل TensorFlow Lite)
    • السبب: وقت تشغيل محسّن لـ نشر النماذج المخصّصة بكفاءة على الأجهزة الجوّالة والأجهزة الطرفية (حجم صغير، استدلال سريع، تسريع الأجهزة).
  • د) هل تحتاج إلى تدريب نموذج تعلُّم الآلة المخصّص لمهمة معيّنة؟
    • ‫→ استخدِم: LiteRT (وقت تشغيل TensorFlow Lite) + تدريب النموذج المخصّص
    • السبب: يوفّر الأدوات اللازمة لـ تدريب النماذج المخصّصة ونشرها، والتي تم تحسينها للأجهزة الجوّالة والأجهزة الطرفية.
  • هـ) هل تحتاج إلى تصنيف متقدّم للمحتوى أو تحليل المشاعر أو ترجمة العديد من اللغات بدقة عالية؟
    • يُرجى تحديد ما إذا كانت نماذج تعلُّم الآلة التقليدية (التي قد يتم نشرها باستخدام LiteRT أو السحابة الإلكترونية) مناسبة، أو ما إذا كانت معالجة اللغة الطبيعية المتقدّمة تتطلب نماذج توليدية (الرجوع إلى "البدء"، واختيار "أ"). بالنسبة إلى التصنيف أو المشاعر أو الترجمة المستندة إلى السحابة الإلكترونية:
    • ‫→ استخدِم: الحلول المستندة إلى السحابة الإلكترونية (مثل ‫Cloud Natural Language API أو ‫Cloud Translation API أو التي يمكن الوصول إليها باستخدام واجهة خلفية مخصّصة أو Vertex AI). (أولوية أقل من الخيارات التي تعمل على الجهاز فقط إذا كانت الخصوصية أو الوظائف بلا إنترنت مهمة).
    • السبب: تقدّم الحلول المستندة إلى السحابة الإلكترونية نماذج قوية ودعمًا واسع النطاق للغات، ولكنها تتطلب اتصالاً بالإنترنت وقد تتكبّد تكاليف.

الذكاء الاصطناعي التوليدي

تحتاج إلى إنشاء محتوى جديد أو تلخيصه أو إعادة كتابته أو إجراء مهام معقّدة للفهم أو التفاعل.

هل تحتاج إلى أن يعمل الذكاء الاصطناعي بلا إنترنت أو تحتاج إلى أقصى قدر من خصوصية البيانات (الحفاظ على بيانات المستخدم على الجهاز فقط) أو تريد تجنُّب تكاليف الاستدلال في السحابة الإلكترونية؟


الذكاء الاصطناعي التوليدي على الجهاز فقط (باستخدام Gemini Nano)

ملاحظات: يتطلب أجهزة Android متوافقة، ودعمًا محدودًا لنظام التشغيل iOS، وتكون النماذج أقل قوة من النماذج المستندة إلى السحابة الإلكترونية.

باستخدام Prompt API من ML Kit، يمكنك إرسال طلبات باللغة الطبيعية تتضمّن بيانات إدخال نصية فقط أو نصية وصورية لمجموعة متنوعة من حالات الاستخدام، مثل فهم الصور والترجمات القصيرة والتلخيصات الموجّهة. إذا كان بإمكانك تلبية حالات استخدامك من خلال حدود الرموز المميّزة هذه، فإنّ واجهات برمجة التطبيقات GenAI من حزمة تعلّم الآلة هي أفضل خيار لك للذكاء الاصطناعي التوليدي على الجهاز فقط. يوفّر ML Kit أيضًا واجهات برمجة تطبيقات مبسطة للمهام الشائعة، مثل التلخيص والرد السريع.


الذكاء الاصطناعي التوليدي المستند إلى السحابة الإلكترونية

يستخدم نماذج أكثر قوة، ويتطلب اتصالاً بالإنترنت، وعادةً ما يتكبّد تكاليف الاستدلال، ويوفر نطاقًا أوسع للوصول إلى الأجهزة واتّساقًا أسهل من عدّة منصات (Android وiOS).

ما هي أولويتك: سهولة الدمج في Firebase أو أقصى قدر من المرونة أو التحكّم؟

  • أ) هل تفضّل عملية دمج أسهل وتجربة واجهة برمجة تطبيقات مُدارة، ومن المحتمل أنّك تستخدم Firebase حاليًا؟
    • ‫→ استخدِم: حزمة تطوير البرامج (SDK) الخاصة بـ Firebase AI Logic → الانتقال إلى Firebase AI Logic
  • ب) هل تحتاج إلى أقصى قدر من المرونة والوصول إلى أوسع مجموعة من النماذج (بما في ذلك النماذج التابعة لجهات خارجية أو المخصّصة) والضبط المتقدّم، وهل أنت على استعداد لإدارة عملية الدمج الخاصة بك في الواجهة الخلفية (الأكثر تعقيدًا)؟
    • ‫→ استخدِم: Gemini API مع واجهة خلفية مخصّصة في السحابة الإلكترونية (باستخدام Google Cloud Platform)
    • السبب: يوفّر أقصى قدر من التحكّم، وأوسع نطاق للوصول إلى النماذج وخيارات التدريب المخصّصة، ولكنه يتطلب جهدًا كبيرًا في تطوير الواجهة الخلفية. مناسب للاحتياجات المعقّدة أو الواسعة النطاق أو المخصّصة للغاية.

(لقد اخترت حزمة تطوير البرامج (SDK) الخاصة بـ Firebase AI Logic) ما هو نوع المهمة التوليدية وملف الأداء الذي تحتاجه؟


‫AppFunctions

تحتاج إلى تحسين وظائف تطبيقك للدمج مع ميزات الذكاء الاصطناعي على مستوى النظام (إضافة تطبيقك إلى الذكاء الاصطناعي).

  • ‫→ استخدِم: AppFunctions
  • السبب: تتيح ميزات الذكاء الاصطناعي على مستوى النظام، مثل "مساعد Google"، اكتشاف إمكانات تطبيقك واستخدامها.