Nowości dotyczące usług

Ogłoszenie Gemma 4 w przedpremierowej wersji AICore dla programistów

3 minuty czytania
r.
Caren Chang & David Chou

W Google dokładamy wszelkich starań, aby udostępniać najbardziej zaawansowane modele AI bezpośrednio na urządzeniach z Androidem. Z przyjemnością ogłaszamy dziś udostępnienie naszego najnowszego, najnowocześniejszego modelu otwartego – Gemma 4.

Modele te stanowią podstawę następnej generacji Gemini Nano, więc kod napisany dziś dla Gemma 4 będzie automatycznie działać na urządzeniach z Gemini Nano 4, które będą dostępne jeszcze w tym roku. Dzięki Gemini Nano 4 skorzystasz z dodatkowych optymalizacji wydajności, dzięki czemu możesz wdrażać aplikacje w ekosystemie Androida z najbardziej wydajnym wnioskowaniem na urządzeniu.

Już dziś możesz uzyskać wcześniejszy dostęp do tego modelu w ramach przedpremierowej wersji AICore dla programistów.

large_Inline-imagery.gif

Aby zobaczyć, jak szybko działa wnioskowanie, zanim napiszesz jakikolwiek kod, wybierz model Gemini Nano 4 Fast w interfejsie przedpremierowej wersji dla programistów

Gemma 4 natywnie obsługuje ponad 140 języków, dzięki czemu możesz oczekiwać lepszych zlokalizowanych i wielojęzycznych wrażeń dla odbiorców na całym świecie. Ponadto Gemma 4 oferuje wiodącą w branży wydajność dzięki multimodalnemu rozumieniu, co pozwala aplikacjom rozumieć i przetwarzać tekst, obrazy i dźwięk. Aby zapewnić najlepszą równowagę między wydajnością a efektywnością, Gemma 4 na Androidzie jest dostępna w 2 rozmiarach:

  • E4B: zaprojektowany z myślą o większej mocy rozumowania i złożonych zadaniach.
  • E2B: zoptymalizowany pod kątem maksymalnej szybkości (3 razy szybszy niż model E4B!) i mniejszych opóźnień.

Nowy model jest nawet 4 razy szybszy niż poprzednie wersje i zużywa do 60% mniej baterii. Od dziś możesz eksperymentować z ulepszonymi funkcjami, takimi jak:

  • Rozumowanie: można teraz oczekiwać, że polecenia łańcucha myśli i instrukcje warunkowe będą zwracać wyniki wyższej jakości. Na przykład: „Sprawdź, czy ten komentarz w wątku dyskusji jest zgodny z wytycznymi dla społeczności. Komentarz nie jest zgodny z wytycznymi dla społeczności, jeśli zawiera co najmniej 1 z tych powodów zgłoszenia: wulgaryzmy, obraźliwy język, wypowiedzi szerzące nienawiść”. Jeśli recenzja jest zgodna z wytycznymi dla społeczności, zwróć {true}. W przeciwnym razie zwróć {false, reason_for_flag}.”
  • Matematyka: dzięki lepszym umiejętnościom matematycznym model może teraz dokładniej odpowiadać na pytania. Na przykład: „Jeśli otrzymuję 26 wypłat rocznie, ile powinienem odkładać z każdej wypłaty,aby w ciągu roku osiągnąć cel oszczędnościowy w wysokości 10 000 zł?”
  • Rozumienie czasu: model jest teraz bardziej wydajny w przypadku rozumowania o czasie, co sprawia, że jest dokładniejszy w zastosowaniach związanych z kalendarzami, przypomnieniami i alarmami. Na przykład: „Wydarzenie odbędzie się 18 sierpnia o 18:00, a przypomnienie powinno zostać wysłane 10 godzin przed wydarzeniem. Zwróć godzinę i datę wysłania przypomnienia.”
  • Rozpoznawanie obrazów: zastosowania, które obejmują OCR (optyczne rozpoznawanie znaków), takie jak rozumienie wykresów, wyodrębnianie danych wizualnych i rozpoznawanie pisma odręcznego, będą teraz zwracać dokładniejsze wyniki.

Dołącz do wersji przedpremierowej dla programistów już dziś, aby pobrać te modele w wersji testowej i od razu zacząć tworzyć funkcje nowej generacji.

Rozpocznij testowanie modelu

Możesz wypróbować model bez kodu, postępując zgodnie z instrukcjami w przewodniku po przedpremierowej wersji dla programistów. Jeśli chcesz od razu zintegrować te modele z dotychczasowym procesem, zrobiliśmy to bezproblemowo. Otwórz Android Studio, aby dopracować prompt i tworzyć aplikacje za pomocą znanego interfejsu ML Kit Prompt API. Wprowadziliśmy nową możliwość określenia modelu, co pozwala testować warianty E2B (szybki) i E4B (pełny).

// Define the configuration with a specific track and preference
val previewFullConfig = generationConfig {
    modelConfig = ModelConfig {
        releaseTrack = ModelReleaseTrack.PREVIEW
        preference = ModelPreference.FULL
    }
}

// Initialize the GenerativeModel with the configuration
val previewModel = GenerativeModel.getClient(previewFullConfig)

// Verify that the specific preview model is available
val previewModelStatus = previewModel.checkStatus()
if (previewModelStatus == FeatureStatus.AVAILABLE) {
    // Proceed with inference
    val response = previewModel.generateContent("If I get 26 paychecks per year, how much I should contribute each paycheck to reach my savings goal of $10k over the course of a year? Return only the amount.")

} else {
    // Handle the case where the preview model is not available
    // (e.g., print out log statements)
}

Czego można się spodziewać w wersji Developer Preview

Celem tej wersji przedpremierowej dla programistów jest zapewnienie Ci przewagi w dopracowywaniu dokładności promptów i odkrywaniu nowych przypadków użycia w Twoich aplikacjach.

W okresie przedpremierowym wprowadzimy kilka aktualizacji, w tym obsługę wywoływania narzędzi, danych wyjściowych w postaci ustrukturyzowanej, promptów systemowych i trybu myślenia w interfejsie Prompt API, co ułatwi pełne wykorzystanie nowych funkcji w Gemma 4 oraz znacznych optymalizacji wydajności. 

Modele w wersji testowej są dostępne do testowania na urządzeniach z AICore. Modele te będą działać na najnowszej generacji specjalistycznych akceleratorów AI od Google, MediaTek i Qualcomm Technologies. Na innych urządzeniach modele będą początkowo działać na implementacji CPU, która nie odzwierciedla ostatecznej wydajności produkcyjnej. Jeśli Twoje urządzenie nie ma AICore, możesz też testować te modele za pomocą aplikacji AI Edge Gallery. W przyszłości będziemy obsługiwać więcej urządzeń.

Jak zacząć

Chcesz się przekonać, co Gemma 4 może zrobić dla Twoich użytkowników?

  1. Zgłoszenie: zarejestruj się w przedpremierowej wersji AICore dla programistów.
  2. Pobieranie: po zaakceptowaniu możesz rozpocząć pobieranie najnowszych modeli Gemma 4 bezpośrednio na obsługiwane urządzenie testowe.
  3. Tworzenie: zaktualizuj implementację ML Kit, aby korzystać z nowych modeli, i zacznij tworzyć aplikacje w Android Studio.
Autorzy:

Czytaj dalej