Wiadomości o usługach

Tworzenie aplikacji na potrzeby systemu Intelligence na Androidzie

Czas czytania: 4 minuty
Matthew McCullough
Vice President, Product Management, Android Developer

Ogłoszono to dziś podczas The Android Show. Android przechodzi z systemu operacyjnego w system inteligentny, co stwarza więcej możliwości interakcji z Twoimi aplikacjami. Dzięki głębokiej integracji sprzętu i oprogramowania urządzenia z Androidem będą w stanie przewidywać potrzeby użytkowników, więc Twoja aplikacja będzie mogła skupić się na zapewnianiu odpowiednich wrażeń w odpowiednim momencie. W ramach tego programu ogłaszamy wprowadzenie Gemini Intelligence, czyli pakietu nowych funkcji, które zapewniają dostęp do najlepszych możliwości Gemini na naszych najbardziej zaawansowanych urządzeniach z Androidem.

Automatyzacja zadań za pomocą Gemini

Dzięki Gemini Intelligence rozszerzamy możliwości Gemini w zakresie automatyzacji zadań w wybranych aplikacjach w imieniu użytkownika, zapewniając wbudowaną przejrzystość i kontrolę. Zapewnia to kolejny sposób na zwiększenie zaangażowania użytkowników i kierowanie do aplikacji ruchu o wysokim potencjale bez konieczności pisania kodu ani wykonywania skomplikowanych prac inżynieryjnych. Dzięki temu, że Gemini może wykonywać złożone, wieloetapowe zadania, takie jak zamówienie latte w kawiarni czy utworzenie koszyka na zakupy na podstawie listy zakupów w aplikacji do notatek, Gemini zajmuje się logistyką za użytkowników, dzięki czemu możesz skupić się na innowacjach i tworzeniu świetnych funkcji. 

Wiemy, że czasami użytkownicy chcą przeglądać treści, a czasami szybko wykonać jakieś zadanie. Początkowo ta funkcja była dostępna w przypadku wybranych partnerów z branży spożywczej i przewozów, aby umożliwić składanie zamówień na zakupy spożywcze lub zamawianie przejazdów. Obecnie rozszerzamy ją na kolejne branże i urządzenia, w tym składane telefony, zegarki, samochody i okulary XR.

TAS-Gif (1).gif

Zwiększanie zaangażowania w funkcje aplikacji

Aby mieć większą kontrolę nad tym, jak agenty wchodzą w interakcje z Twoją aplikacją, możesz używać funkcji AppFunctions na Androidzie. Dzięki temu możesz udostępniać konkretne narzędzia, takie jak usługi, dane i działania, bezpośrednio w systemie operacyjnym i agentach, wraz z opisami w języku naturalnym. System może wtedy wykrywać i wykonywać te narzędzia na różnych urządzeniach, co umożliwia użytkownikom wywoływanie funkcji aplikacji za pomocą systemu inteligentnego, aby uzyskać bogatsze i bardziej spersonalizowane wrażenia dzięki automatyzacji zadań. Zaczęliśmy testować te wczesne wersje interfejsów API w ramach prywatnej wersji testowej w aplikacjach takich jak KakaoTalk, aby umożliwić użytkownikom „wysyłanie wiadomości” lub „inicjowanie połączeń głosowych” za pomocą tej nowej platformy. Funkcje aplikacji umożliwiają już lokalne wykonywanie 25 przypadków użycia aplikacji na urządzeniach różnych producentów. Możesz eksperymentować z interfejsem API lokalnie i już teraz zgłosić zainteresowanie udziałem w programie wcześniejszego dostępu do AppFunctions, aby w pełni wykorzystać możliwości integracji.

Udostępniamy wiele ścieżek integracji, aby sprostać Twoim potrzebom na każdym etapie tej podróży po świecie AI. Możesz skorzystać z łatwej automatyzacji aplikacji bez konieczności zmiany kodu lub użyć interfejsu AppFunctions API, aby uzyskać większą kontrolę w sposób podobny do MCP.

Ulepszony interfejs użytkownika dzięki widżetom

Zwiększamy wygodę użytkowników, rozszerzając obsługę widżetów na nowe formaty, zaczynając od samochodów. Daje to nowe możliwości angażowania użytkowników w 250 mln pojazdów zgodnych z Androidem Auto. 

Jetpack Glance ułatwia tworzenie wysokiej jakości widżetów, a dzięki nowej platformie bazowej o nazwie RemoteCompose zyskuje nowe, zaawansowane funkcje.

  • Nowe, bardziej rozbudowane interakcje premium:  funkcja RemoteCompose została zaprojektowana tak, aby była wysoce adaptacyjna i oszczędna pod względem baterii, dzięki czemu Szybki podgląd może zapewniać bardziej rozbudowane interakcje premium. Wkrótce będziesz mieć dostęp do nowych funkcji, takich jak szybkie przewijanie, ekspresyjne przyciski i efekty cząsteczkowe, które pozwolą Ci tworzyć bardziej angażujące widżety.
  • Wbudowana zgodność wsteczna: te funkcje RemoteCompose są obsługiwane od razu na urządzeniach z Androidem 16 lub nowszym. Korzystając z Jetpack Glance jako interfejsu API, zachowujesz pełną zgodność wsteczną. Na nowszych urządzeniach widżety będą automatycznie korzystać z tych funkcji interfejsu premium, a na starszych wersjach systemu operacyjnego będą działać w trybie ograniczonym.

RemoteCompose to także silnik funkcji Wygeneruj mój widżet, która umożliwia użytkownikom zapytanie Gemini o tworzenie w pełni adaptacyjnych widżetów niestandardowych, które można bezproblemowo zmieniać i optymalizować pod kątem ekranu głównego użytkownika lub zegarka z Wear OS.

Budowanie adaptacyjnych rozwiązań wykraczających poza telefon

Od urządzeń składanych, tabletów, zgodnych samochodów i gogli XR po nowe Googlebooki – obszar, na którym działają aplikacje na Androida, rozszerzył się na różne ekrany i formaty. Oto niektóre z aktualizacji, które pomogą Ci tworzyć elastyczne reklamy: 

morph-to-tablet.gif
  • Jetpack Navigation 3: nasza najnowsza biblioteka Jetpack Navigation 3 zapewnia bardziej zaawansowaną obsługę adaptacyjną dzięki dodaniu dekoratorów scen do interfejsu Scene API. Dekoratory scen mogą służyć do modyfikowania sceny obliczonej przez strategię sceny aplikacji. Można ich na przykład używać do dodawania typowych elementów interfejsu, takich jak górne paski aplikacji i paski nawigacyjne, które chcesz dodać na poziomie sceny, a nie na poziomie wpisu nawigacyjnego. Komponent NavDisplay ma teraz wbudowaną funkcję, która sprawia, że wpisy nawigacyjne są elementami udostępnionymi, dzięki czemu możesz płynnie przechodzić między scenami. Więcej informacji znajdziesz w przepisach Nav3.
  • Jetpack Compose: wdrożenie Compose w aplikacji to nadal najprostszy sposób na rozpoczęcie tworzenia adaptacyjnych interfejsów. Chcemy mieć pewność, że masz odpowiednie wsparcie architektoniczne. W Compose 1.11 pracujemy nad nowym zestawem elementów do tworzenia elastycznych układów i dostosowywania za pomocą siatkiFlexboxMediaQuerystylu. Zanim usuniemy oznaczenie „Eksperymentalne”, chcielibyśmy poznać Twoją opinię na ich temat.
  • Wskazówki dotyczące projektowania:  aby się zainspirować, przejrzyj naszą zaktualizowaną galerię projektów, a aby zacząć, odwiedź nasze nowe centrum projektowania na komputery lub zapoznaj się z wskazówkami dotyczącymi układu adaptacyjnego.

Aby zapewnić użytkownikom różne wrażenia w zależności od urządzenia,  skorzystaj z najnowszych aktualizacji:

  • Biblioteka aplikacji samochodowych:  upraszczamy proces programowania, rozszerzając bibliotekę aplikacji samochodowych, która umożliwia „tworzenie raz” i dostarczanie dostosowanych, zoptymalizowanych pod kątem rozpraszania uwagi multimediów zarówno na Androida Auto, jak i na system operacyjny Android Automotive. Aby umożliwić jeszcze lepsze korzystanie z samochodu, rozszerzamy obsługę adaptacyjnych aplikacji wideo, dzięki czemu filmy mogą być odtwarzane na pełnym ekranie, gdy samochód jest zaparkowany.
  • Pakiet SDK Android XR:  pakiet SDK Android XR umożliwia tworzenie wysoce zróżnicowanych, niestandardowych funkcji dla rosnącego spektrum urządzeń XR, w tym nadchodzących przewodowych okularów XR (takich jak Project Aura od XREAL), a istniejące aplikacje adaptacyjne automatycznie pojawiają się w środowiskach immersyjnych bez dodatkowego nakładu pracy. Aby przygotować się na okulary wyświetlające, możesz użyć Jetpack Compose Glimmer do tworzenia interfejsów użytkownika, które można szybko przejrzeć i które są dostosowane do okularów wyświetlających, a także interfejsów API Jetpack Projected, aby przenosić funkcje aplikacji z telefonu do pola widzenia użytkownika. W przyszłym tygodniu udostępnimy czwartą wersję przedpremierową pakietu SDK Android XR dla programistów, która wprowadza nowe komponenty interaktywne, takie jak Title Chips i Button Groups, które optymalizują wprowadzanie danych na touchpadach okularów. Usprawnia przepływ pracy dzięki nowemu interfejsowi ProjectedTestRule API, który umożliwia automatyzację środowisk testowych.

Nowa era dla użytkowników Androida

Od przejścia na system oparty na sztucznej inteligencji po wprowadzenie nowych formatów, takich jak Google Play Books, Android tworzy nowe sposoby na to, aby użytkownicy mogli w pełni wykorzystywać możliwości swoich urządzeń, a deweloperzy i twórcy aplikacji odgrywali w tym procesie kluczową rolę.

Funkcje Gemini Intelligence będą wdrażane etapami, gdy tylko będą gotowe. Pierwsze urządzenia, na których pojawią się te funkcje, to najnowsze telefony Samsung Galaxy i Google Pixel. Będzie to miało miejsce tego lata. Jeszcze w tym roku będą one dostępne na wszystkich urządzeniach z Androidem, w tym na zegarkach, w samochodach, na okularach i laptopach.

Więcej informacji o tworzeniu aplikacji w tej nowej erze podamy na konferencji Google I/O w przyszłym tygodniu. 

Autor:

Czytaj dalej