Gemini Developer API

للوصول إلى نماذج Gemini Pro وFlash، ننصحك بمطوّري تطبيقات Android باستخدام Gemini Developer API باستخدام منطق الذكاء الاصطناعي في Firebase. تتيح لك هذه الخدمة البدء بدون الحاجة إلى بطاقة ائتمان، كما توفّر لك خطة مجانية سخية. بعد إتمام عملية التحقّق من عملية الدمج مع قاعدة مستخدمين صغيرة، يمكنك توسيع نطاق استخدامها من خلال التبديل إلى الإصدار المدفوع.

صورة توضيحية لتطبيق Android يحتوي على حزمة تطوير البرامج (SDK) لنظام Android
  من Firebase سهم يشير من حزمة SDK إلى Firebase ضمن بيئة Cloud من
  Firebase، يشير سهم آخر إلى Gemini Developer API، التي تكون مرتبطة ب
  Gemini Pro وFlash، أيضًا ضمن Cloud.
الشكل 1. بنية دمج منطق الذكاء الاصطناعي في Firebase للوصول إلى Gemini Developer API

خطوات البدء:

قبل التفاعل مع واجهة برمجة التطبيقات Gemini API مباشرةً من تطبيقك، عليك أولاً تنفيذ بعض الإجراءات، بما في ذلك التعرّف على طلبات الموافقة و إعداد Firebase وتطبيقك لاستخدام حزمة تطوير البرامج (SDK).

تجربة طلبات مختلفة

يمكن أن تساعدك التجربة في العثور على أفضل صيغة ومحتوى وعبارة لتطبيق Android. Google AI Studio هو بيئة تطوير متكاملة (IDE) يمكنك استخدامها لإنشاء نماذج أولية للطلبات وتصميمها لحالات استخدام تطبيقك.

إنّ إنشاء الطلب المناسب لحالة الاستخدام هو فن أكثر منه علمًا، ما يجعل التجارب ضرورية. يمكنك الاطّلاع على مزيد من المعلومات عن الطلبات في مستندات Firebase.

بعد أن تصبح راضيًا عن الطلب، انقر على الزر "<>" للحصول على مقتطفات من الرمز البرمجي يمكنك إضافتها إلى الرمز البرمجي الخاص بك.

إعداد مشروع على Firebase وربط تطبيقك به

بعد أن تصبح مستعدًا للاتّصال بواجهة برمجة التطبيقات من تطبيقك، اتّبِع التعليمات الواردة في "الخطوة 1" من دليل بدء استخدام Firebase AI Logic لإعداد Firebase وحزمة تطوير البرامج (SDK) في تطبيقك.

إضافة تبعية Gradle

أضِف التبعية التالية لـ Gradle إلى وحدة تطبيقك:

Kotlin

dependencies {
  // ... other androidx dependencies

  // Import the BoM for the Firebase platform
  implementation(platform("com.google.firebase:firebase-bom:33.13.0"))

  // Add the dependency for the Firebase AI Logic library When using the BoM,
  // you don't specify versions in Firebase library dependencies
  implementation("com.google.firebase:firebase-ai")
}

Java

dependencies {
  // Import the BoM for the Firebase platform
  implementation(platform("com.google.firebase:firebase-bom:33.13.0"))

  // Add the dependency for the Firebase AI Logic library When using the BoM,
  // you don't specify versions in Firebase library dependencies
  implementation("com.google.firebase:firebase-ai")

  // Required for one-shot operations (to use `ListenableFuture` from Guava
  // Android)
  implementation("com.google.guava:guava:31.0.1-android")

  // Required for streaming operations (to use `Publisher` from Reactive
  // Streams)
  implementation("org.reactivestreams:reactive-streams:1.0.4")
}

بدء النموذج التوليدي

ابدأ بإنشاء مثيل GenerativeModel وتحديد اسم النموذج:

Kotlin

val model = Firebase.ai(backend = GenerativeBackend.googleAI())
                        .generativeModel("gemini-2.0-flash")

Java

GenerativeModel firebaseAI = FirebaseAI.getInstance(GenerativeBackend.googleAI())
        .generativeModel("gemini-2.0-flash");

GenerativeModelFutures model = GenerativeModelFutures.from(firebaseAI);

اطّلِع على مزيد من المعلومات عن النماذج المتاحة للاستخدام مع واجهة برمجة التطبيقات Developer API في Gemini. يمكنك أيضًا الاطّلاع على مزيد من المعلومات عن ضبط مَعلمات النماذج.

التفاعل مع Gemini Developer API من تطبيقك

بعد إعداد Firebase وتطبيقك لاستخدام حزمة SDK، أصبحت مستعدًا للقيام بالتفاعل مع Gemini Developer API من تطبيقك.

إنشاء نص

لإنشاء ردّ نصي، اتصل على generateContent() وأدخِل طلبك.

Kotlin

scope.launch {
  val response = model.generateContent("Write a story about a magic backpack.")
}

Java

Content prompt = new Content.Builder()
    .addText("Write a story about a magic backpack.")
    .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

إنشاء نص من الصور والوسائط الأخرى

يمكنك أيضًا إنشاء نص من طلب يتضمّن نصًا بالإضافة إلى صور أو وسائط أخرى. عند الاتصال بـ generateContent()، يمكنك تمرير الوسائط كبيانات مضمّنة.

على سبيل المثال، لاستخدام صورة نقطية، استخدِم نوع المحتوى image:

Kotlin

scope.launch {
  val response = model.generateContent(
    content {
      image(bitmap)
      text("what is the object in the picture?")
    }
  )
}

Java

Content content = new Content.Builder()
        .addImage(bitmap)
        .addText("what is the object in the picture?")
        .build();

ListenableFuture<GenerateContentResponse> response = model.generateContent(content);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        [...]
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

لإرسال ملف صوتي، استخدِم نوع المحتوى inlineData:

Kotlin

val contentResolver = applicationContext.contentResolver
val inputStream = contentResolver.openInputStream(audioUri).use { stream ->
    stream?.let {
        val bytes = stream.readBytes()

        val prompt = content {
            inlineData(bytes, "audio/mpeg")  // Specify the appropriate audio MIME type
            text("Transcribe this audio recording.")
        }

        val response = model.generateContent(prompt)
    }
}

Java

ContentResolver resolver = getApplicationContext().getContentResolver();

try (InputStream stream = resolver.openInputStream(audioUri)) {
    File audioFile = new File(new URI(audioUri.toString()));
    int audioSize = (int) audioFile.length();
    byte audioBytes = new byte[audioSize];
    if (stream != null) {
        stream.read(audioBytes, 0, audioBytes.length);
        stream.close();

        // Provide a prompt that includes audio specified earlier and text
        Content prompt = new Content.Builder()
              .addInlineData(audioBytes, "audio/mpeg")  // Specify the appropriate audio MIME type
              .addText("Transcribe what's said in this audio recording.")
              .build();

        // To generate text output, call `generateContent` with the prompt
        ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
        Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
            @Override
            public void onSuccess(GenerateContentResponse result) {
                String text = result.getText();
                Log.d(TAG, (text == null) ? "" : text);
            }
            @Override
            public void onFailure(Throwable t) {
                Log.e(TAG, "Failed to generate a response", t);
            }
        }, executor);
    } else {
        Log.e(TAG, "Error getting input stream for file.");
        // Handle the error appropriately
    }
} catch (IOException e) {
    Log.e(TAG, "Failed to read the audio file", e);
} catch (URISyntaxException e) {
    Log.e(TAG, "Invalid audio file", e);
}

لتقديم ملف فيديو، يُرجى مواصلة استخدام نوع المحتوى inlineData:

Kotlin

val contentResolver = applicationContext.contentResolver
contentResolver.openInputStream(videoUri).use { stream ->
  stream?.let {
    val bytes = stream.readBytes()

    val prompt = content {
        inlineData(bytes, "video/mp4")  // Specify the appropriate video MIME type
        text("Describe the content of this video")
    }

    val response = model.generateContent(prompt)
  }
}

Java

ContentResolver resolver = getApplicationContext().getContentResolver();

try (InputStream stream = resolver.openInputStream(videoUri)) {
    File videoFile = new File(new URI(videoUri.toString()));
    int videoSize = (int) videoFile.length();
    byte[] videoBytes = new byte[videoSize];
    if (stream != null) {
        stream.read(videoBytes, 0, videoBytes.length);
        stream.close();

        // Provide a prompt that includes video specified earlier and text
        Content prompt = new Content.Builder()
                .addInlineData(videoBytes, "video/mp4")
                .addText("Describe the content of this video")
                .build();

        // To generate text output, call generateContent with the prompt
        ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
        Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
            @Override
            public void onSuccess(GenerateContentResponse result) {
                String resultText = result.getText();
                System.out.println(resultText);
            }

            @Override
            public void onFailure(Throwable t) {
                t.printStackTrace();
            }
        }, executor);
    }
} catch (IOException e) {
    e.printStackTrace();
} catch (URISyntaxException e) {
    e.printStackTrace();
}

وبالمثل، يمكنك أيضًا تمرير ملفات PDF (application/pdf) والنصوص العادية (text/plain) من خلال تمرير نوع MIME الخاص بها كمَعلمة.

محادثة متعددة الخطوات

يمكنك أيضًا إتاحة المحادثات التي تتضمّن عدّة أدوار. ابدأ محادثة باستخدام الدالة startChat(). يمكنك اختياريًا تزويد النموذج بسجلّ الرسائل. بعد ذلك، استخدِم الدالة sendMessage() لإرسال رسائل المحادثة.

Kotlin

val chat = model.startChat(
    history = listOf(
        content(role = "user") { text("Hello, I have 2 dogs in my house.") },
        content(role = "model") { text("Great to meet you. What would you like to know?")   }
    )
)

scope.launch {
   val response = chat.sendMessage("How many paws are in my house?")
}

Java

Content.Builder userContentBuilder = new Content.Builder();
userContentBuilder.setRole("user");
userContentBuilder.addText("Hello, I have 2 dogs in my house.");
Content userContent = userContentBuilder.build();

Content.Builder modelContentBuilder = new Content.Builder();
modelContentBuilder.setRole("model");
modelContentBuilder.addText("Great to meet you. What would you like to know?");
Content modelContent = userContentBuilder.build();

List<Content> history = Arrays.asList(userContent, modelContent);

// Initialize the chat
ChatFutures chat = model.startChat(history);

// Create a new user message
Content.Builder messageBuilder = new Content.Builder();
messageBuilder.setRole("user");
messageBuilder.addText("How many paws are in my house?");

Content message = messageBuilder.build();

// Send the message
ListenableFuture<GenerateContentResponse> response = chat.sendMessage(message);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
    @Override
    public void onSuccess(GenerateContentResponse result) {
        String resultText = result.getText();
        System.out.println(resultText);
    }

    @Override
    public void onFailure(Throwable t) {
        t.printStackTrace();
    }
}, executor);

راجِع مستندات Firebase للحصول على مزيد من التفاصيل.

الخطوات التالية