Wiadomości o usługach

Tworzenie aplikacji dla systemu analitycznego na Androidzie

Czas czytania: 4 min
Matthew McCullough
Vice President, Product Management, Android Developer

Jak ogłosiliśmy dziś podczas The Android Show, Android przechodzi z systemu operacyjnego do systemu analitycznego, co stwarza więcej możliwości interakcji z Twoimi aplikacjami. Dzięki głębokiej integracji sprzętu i oprogramowania urządzenia z Androidem będą w stanie przewidywać potrzeby użytkowników, dzięki czemu Twoja aplikacja będzie mogła skupić się na dostarczaniu odpowiednich wrażeń w odpowiednim momencie. W ramach tego procesu ogłaszamy Gemini Intelligence, czyli zestaw nowych funkcji, które zapewniają dostęp do najlepszych możliwości Gemini na naszych najbardziej zaawansowanych urządzeniach z Androidem.

Automatyzacja zadań za pomocą Gemini

Dzięki Gemini Intelligence rozszerzamy możliwości Gemini w zakresie automatyzacji zadań w wybranych aplikacjach w imieniu użytkownika, zapewniając wbudowaną przejrzystość i kontrolę. Stwarza to kolejną możliwość zaangażowania użytkowników, kierując do Twojej aplikacji ruch o wysokim poziomie intencji bez konieczności pisania kodu ani wykonywania przez Ciebie złożonych prac inżynieryjnych. Dzięki temu, że Gemini może wykonywać złożone, wieloetapowe zadania, takie jak zamawianie latte w kawiarni czy tworzenie koszyka na zakupy na podstawie listy zakupów w aplikacji do notatek, Gemini zajmuje się logistyką za użytkowników, dzięki czemu możesz skupić się na innowacjach i tworzeniu świetnych funkcji. 

Wiemy, że czasami użytkownicy chcą przeglądać treści, a czasami szybko wykonać zadanie. Ta funkcja, która została początkowo wprowadzona we współpracy z wybranymi partnerami z branży spożywczej i transportowej, aby umożliwić zamawianie jedzenia i przejazdów, jest teraz rozszerzana na kolejne branże i urządzenia, w tym urządzenia składane, zegarki, samochody i okulary XR. 

TAS-Gif (1).gif

Zwiększanie zaangażowania dzięki AppFunctions

Aby mieć większą kontrolę nad tym, jak agenci wchodzą w interakcję z Twoją aplikacją, możesz używać AppFunctions na Androidzie. Dzięki temu możesz udostępniać określone narzędzia, takie jak usługi, dane i działania, bezpośrednio w systemie operacyjnym i agentach, wraz z opisami w języku naturalnym. System może następnie wykrywać i wykonywać te narzędzia na różnych urządzeniach, co umożliwia użytkownikom wywoływanie funkcji aplikacji za pomocą systemu analitycznego, aby zapewnić im bogatsze i bardziej spersonalizowane wrażenia dzięki automatyzacji zadań. Zaczęliśmy testować te interfejsy API w wersji wstępnej w ramach prywatnego testu z aplikacjami takimi jak KakaoTalk, aby umożliwić użytkownikom „wysyłanie wiadomości” lub „rozpoczynanie połączeń głosowych” za pomocą tej nowej platformy. AppFunctions umożliwiły już lokalne wykonywanie przypadków użycia 25 aplikacji u różnych producentów urządzeń.Możesz eksperymentować z interfejsem API lokalnie i już teraz zgłosić chęć dołączenia do AppFunctions programu wczesnego dostępu, aby uzyskać pełne możliwości integracji.

Udostępniamy wiele ścieżek integracji, aby sprostać Twoim potrzebom na każdym etapie tej podróży w kierunku analityki. Możesz skorzystać z łatwej automatyzacji aplikacji bez konieczności wprowadzania zmian w kodzie lub użyć interfejsu AppFunctions API, aby uzyskać większą kontrolę w sposób podobny do MCP.

Lepsze wrażenia użytkownika dzięki widżetom

Zwiększamy wygodę użytkowników, rozszerzając obsługę widżetów na nowe urządzenia, zaczynając od samochodów. Stwarza to nowe możliwości angażowania użytkowników w 250 milionach pojazdów zgodnych z Androidem Auto. 

Jetpack Glance ułatwia tworzenie wysokiej jakości widżetów, a teraz zyskuje nowe, zaawansowane możliwości dzięki nowej platformie o nazwie RemoteCompose.

  • Nowe, bogatsze interakcje premium: RemoteCompose został zaprojektowany tak, aby był wysoce adaptacyjny i energooszczędny, dzięki czemu Glance może zapewniać bogatsze interakcje premium. Wkrótce będziesz mieć do dyspozycji nowe funkcje, w tym snapscroll, ekspresyjne przyciski i efekty cząsteczkowe, które pozwolą Ci tworzyć bardziej angażujące widżety.
  • Wbudowana zgodność wsteczna: te ekspresyjne funkcje RemoteCompose są obsługiwane od razu na Androidzie 16 i nowszych. Używając Jetpack Glance jako interfejsu API, zachowujesz pełną zgodność wsteczną. Twoje widżety będą automatycznie korzystać z tych funkcji interfejsu premium na nowszych urządzeniach, a na starszych wersjach systemu operacyjnego będą działać w sposób ograniczony.

Ponadto RemoteCompose to silnik funkcji Wygeneruj mój widżet, która umożliwia użytkownikom zapytanie Gemini o tworzenie w pełni adaptacyjnych widżetów niestandardowych, które można zmieniać i optymalizować pod kątem ekranu głównego użytkownika lub zegarka z Wear OS.

Tworzenie adaptacyjnych aplikacji na różne urządzenia

Od urządzeń składanych, tabletów, kompatybilnych samochodów i gogli XR po nowe Googlebooks – obszar aplikacji na Androida rozszerzył się na różne ekrany i urządzenia. Oto kilka aktualizacji, które pomogą Ci tworzyć adaptacyjne aplikacje: 

morph-to-tablet.gif
  • Jetpack Navigation 3: najnowsza wersja Jetpack Navigation 3 oferuje głębszą obsługę adaptacyjną dzięki dodaniu dekoratorów scen do interfejsu Scene API. Dekoratory scen mogą służyć do modyfikowania sceny obliczanej przez strategię sceny aplikacji. Można ich na przykład używać do dodawania typowych elementów interfejsu, takich jak górne paski aplikacji i paski nawigacyjne, które chcesz dodać na poziomie sceny, a nie na poziomie wpisu nawigacyjnego. NavDisplay zawiera teraz wbudowaną funkcję, która sprawia, że wpisy nawigacyjne są elementami współdzielonymi, dzięki czemu możesz płynnie przechodzić między scenami. Więcej informacji znajdziesz w przepisach Nav3.
  • Jetpack Compose: wdrożenie Compose w aplikacji pozostaje najłatwiejszym sposobem na rozpoczęcie tworzenia adaptacyjnych interfejsów, a my chcemy mieć pewność, że masz odpowiedni poziom wsparcia architektonicznego. Pracujemy nad nowym zestawem elementów składowych w Compose 1.11, które umożliwiają tworzenie elastycznych układów i dostosowywanie ich za pomocą GridFlexboxMediaQueryStyle. Zanim usuniemy flagę eksperymentalną, chcielibyśmy poznać Twoją opinię na ich temat.
  • Wskazówki dotyczące projektowania: aby zacząć, zapoznaj się z naszą zaktualizowaną galerią projektów, nowym centrum projektowania na komputery lub wskazówkami dotyczącymi układów adaptacyjnych.

Aby tworzyć aplikacje dostosowane do konkretnych urządzeń,  skorzystaj z najnowszych aktualizacji:

  • Biblioteka aplikacji samochodowych: usprawniamy proces programowania, rozszerzając bibliotekę aplikacji samochodowych, która umożliwia "tworzenie aplikacji raz" i dostarczanie dostosowanych, zoptymalizowanych pod kątem rozpraszania uwagi wrażeń multimedialnych zarówno na Androidzie Auto, jak i na systemie operacyjnym Android Automotive. Dodatkowo zwiększamy zaangażowanie w samochodzie, rozszerzając obsługę adaptacyjnych aplikacji wideo, dzięki czemu filmy mogą być odtwarzane na pełnym ekranie, gdy samochody są zaparkowane.
  • Pakiet SDK Android XR:  pakiet SDK Android XR umożliwia tworzenie wysoce zróżnicowanych, niestandardowych wrażeń na rosnącej liczbie urządzeń XR, w tym na nadchodzących przewodowych okularach XR (takich jak Project Aura firmy XREAL), a istniejące aplikacje adaptacyjne automatycznie pojawiają się w środowiskach immersyjnych bez dodatkowego wysiłku deweloperskiego. Możesz przygotować się na okulary wyświetlające, używając Jetpack Compose Glimmer do tworzenia interfejsów, które można szybko przejrzeć, dostosowanych do okularów wyświetlających, oraz interfejsów Jetpack Projected API do przenoszenia wrażeń z aplikacji z telefonu do pola widzenia użytkownika. Wersja przedpremierowa 4 pakietu SDK Android XR, która pojawi się w przyszłym tygodniu, wprowadza nowe komponenty interaktywne, takie jak Title Chips i Button Groups, które optymalizują wprowadzanie danych na touchpadach okularów. Usprawnia ona proces pracy dzięki nowemu interfejsowi ProjectedTestRule API, który umożliwia automatyzację środowisk testowych.

Nowa era dla użytkowników Androida

Od przejścia na system analityczny po rozszerzenie na nowe urządzenia, takie jak Googlebooks, Android tworzy nowe sposoby na to, aby użytkownicy mogli w pełni wykorzystywać możliwości swoich urządzeń, a deweloperzy i twórcy aplikacji byli w centrum tego procesu.

Funkcje Gemini Intelligence będą wprowadzane etapami, gdy będą gotowe. Pierwsze z nich pojawią się tego lata na najnowszych telefonach Samsung Galaxy i Google Pixel. Później w tym roku będą one dostępne również na innych urządzeniach z Androidem, w tym na zegarkach, w samochodach, okularach i laptopach.

W przyszłym tygodniu podczas Google I/O dowiesz się więcej o tworzeniu aplikacji w tej nowej erze. 

Scenariusz:

Czytaj dalej