Android 14 bietet viele neue Funktionen und APIs für Entwickler. Die folgenden Ressourcen helfen Ihnen, sich über Funktionen für Ihre Apps zu informieren und mit den zugehörigen APIs zu beginnen.
Eine detaillierte Liste der hinzugefügten, geänderten und entfernten APIs finden Sie im API-Vergleichsbericht. Details zu den hinzugefügten APIs findest du in der Android-API-Referenz. Suche für Android 14 nach APIs, die in API-Level 34 hinzugefügt wurden. Informationen zu Bereichen, in denen sich Plattformänderungen auf Ihre Apps auswirken können, finden Sie unter „Verhaltensänderungen in Android 14“ für Apps, die auf Android 14 ausgerichtet sind, und für alle Apps.
Lokalisierung
App-spezifische Spracheinstellungen
Android 14 erweitert die Funktionen für die Sprache pro App, die in Android 13 (API-Level 33) eingeführt wurden, um die folgenden zusätzlichen Funktionen:
localeConfigeiner App automatisch generieren: Ab Android Studio Giraffe Canary 7 und AGP 8.1.0-alpha07 können Sie Ihre App so konfigurieren, dass sie automatisch Spracheinstellungen pro App unterstützt. Basierend auf den Projektressourcen generiert das Android Gradle-Plug-in die DateiLocaleConfigund fügt in der endgültigen Manifestdatei einen Verweis darauf hinzu. Sie müssen die Datei also nicht mehr manuell erstellen oder aktualisieren. AGP verwendet die Ressourcen in denres-Ordnern Ihrer App-Module und alle Abhängigkeiten von Bibliotheksmodulen, um die Sprachen zu ermitteln, die in dieLocaleConfig-Datei aufgenommen werden sollen.Dynamische Updates für die
localeConfigeiner App: Verwenden Sie die MethodensetOverrideLocaleConfig()undgetOverrideLocaleConfig()inLocaleManager, um die Liste der unterstützten Sprachen Ihrer App in den Systemeinstellungen des Geräts dynamisch zu aktualisieren. Sie können diese Flexibilität nutzen, um die Liste der unterstützten Sprachen pro Region anzupassen, A/B-Tests durchzuführen oder eine aktualisierte Liste der Sprachen anzugeben, wenn Ihre App serverseitige Pushes für die Lokalisierung verwendet.Sichtbarkeit der App-Sprache für Eingabemethoden-Editoren (IMEs): IMEs können die Methode
getApplicationLocales()verwenden, um die Sprache der aktuellen App zu prüfen und die IME-Sprache mit dieser Sprache abzugleichen.
Grammatical Inflection API
3 Milliarden Menschen sprechen geschlechterspezifische Sprachen: Sprachen, in denen grammatische Kategorien wie Substantive, Verben, Adjektive und Präpositionen je nach Geschlecht der Personen und Objekte, mit denen oder über die gesprochen wird, konjugiert werden. Traditionell wird in vielen Sprachen mit Geschlechtern das männliche grammatische Geschlecht als Standard- oder generisches Geschlecht verwendet.
Wenn Sie Nutzer im falschen grammatischen Geschlecht ansprechen, z. B. Frauen im maskulinen grammatischen Geschlecht, kann sich das negativ auf ihre Leistung und Einstellung auswirken. Eine Benutzeroberfläche mit einer Sprache, die das grammatische Geschlecht des Nutzers korrekt widerspiegelt, kann das Nutzer-Engagement verbessern und eine personalisiertere und natürlicher klingende Nutzererfahrung bieten.
Mit der Grammatical Inflection API in Android 14 können Sie eine nutzerzentrierte Benutzeroberfläche für Sprachen mit grammatischem Geschlecht erstellen. So können Sie die Unterstützung für das grammatische Geschlecht hinzufügen, ohne Ihre App umbauen zu müssen.
Regionale Einstellungen
Regional preferences enable users to personalize temperature units, the first day of the week, and numbering systems. A European living in the United States might prefer temperature units to be in Celsius rather than Fahrenheit and for apps to treat Monday as the beginning of the week instead of the US default of Sunday.
New Android Settings menus for these preferences provide users with a
discoverable and centralized location to change app preferences. These
preferences also persist through backup and restore. Several APIs and
intents—such as
getTemperatureUnit
and
getFirstDayOfWeek—
grant your app read access to user preferences, so your app can adjust how it
displays information. You can also register a
BroadcastReceiver on
ACTION_LOCALE_CHANGED
to handle locale configuration changes when regional preferences change.
To find these settings, open the Settings app and navigate to System > Languages & input > Regional preferences.
Bedienungshilfen
Nicht lineare Skalierung der Schriftgröße auf 200%
Starting in Android 14, the system supports font scaling up to 200%, providing low-vision users with additional accessibility options that align with Web Content Accessibility Guidelines (WCAG).
To prevent large text elements on screen from scaling too large, the system applies a nonlinear scaling curve. This scaling strategy means that large text doesn't scale at the same rate as smaller text. Nonlinear font scaling helps preserve the proportional hierarchy between elements of different sizes while mitigating issues with linear text scaling at high degrees (such as text being cut off or text that becomes harder to read due to an extremely large display sizes).
Test your app with nonlinear font scaling
If you already use scaled pixels (sp) units to define text sizing, then these additional options and scaling improvements are applied automatically to the text in your app. However, you should still perform UI testing with the maximum font size enabled (200%) to ensure that your app applies the font sizes correctly and can accommodate larger font sizes without impacting usability.
To enable 200% font size, follow these steps:
- Open the Settings app and navigate to Accessibility > Display size and text.
- For the Font size option, tap the plus (+) icon until the maximum font size setting is enabled, as shown in the image that accompanies this section.
Use scaled pixel (sp) units for text-sizes
Remember to always specify text sizes in sp units. When your app uses sp units, Android can apply the user's preferred text size and scale it appropriately.
Don't use sp units for padding or define view heights assuming implicit padding: with nonlinear font scaling sp dimensions might not be proportional, so 4sp + 20sp might not equal 24sp.
Convert scaled pixel (sp) units
Use TypedValue.applyDimension() to convert from sp units
to pixels, and use TypedValue.deriveDimension() to
convert pixels to sp. These methods apply the appropriate nonlinear scaling
curve automatically.
Avoid hardcoding equations using
Configuration.fontScale or
DisplayMetrics.scaledDensity. Because font scaling is
nonlinear, the scaledDensity field is no longer accurate. The fontScale
field should be used for informational purposes only because fonts are no longer
scaled with a single scalar value.
Use sp units for lineHeight
Always define android:lineHeight using sp units instead
of dp, so the line height scales along with your text. Otherwise, if your text
is sp but your lineHeight is in dp or px, it doesn't scale and looks cramped.
TextView automatically corrects the lineHeight so that your intended
proportions are preserved, but only if both textSize and lineHeight are
defined in sp units.
Kamera und Medien
Ultra HDR für Bilder
Android 14 unterstützt jetzt HDR-Bilder (High Dynamic Range). Dabei bleiben beim Aufnehmen eines Fotos mehr Informationen vom Sensor erhalten, was zu lebendigeren Farben und einem höheren Kontrast führt. Android verwendet das Ultra-HDR-Format, das vollständig abwärtskompatibel mit JPEG-Bildern ist. So können Apps nahtlos mit HDR-Bildern interagieren und sie bei Bedarf im Standard-Dynamikbereich (SDR) anzeigen.
Das Rendern dieser Bilder in der Benutzeroberfläche in HDR erfolgt automatisch durch das Framework, wenn Ihre App die HDR-Benutzeroberfläche für ihr Aktivitätsfenster aktiviert, entweder über einen Manifesteintrag oder zur Laufzeit durch Window.setColorMode() aufrufen. Auf unterstützten Geräten können Sie auch komprimierte Ultra-HDR-Standbilder aufnehmen. Je mehr Farben vom Sensor erfasst werden, desto flexibler ist die Nachbearbeitung. Die mit Ultra-HDR-Bildern verknüpfte Gainmap kann zum Rendern mit OpenGL oder Vulkan verwendet werden.
Zoom, Fokus, Postview und mehr in Kameraerweiterungen
Android 14 upgrades and improves camera extensions, allowing apps to handle longer processing times, which enables improved images using compute-intensive algorithms like low-light photography on supported devices. These features give users an even more robust experience when using camera extension capabilities. Examples of these improvements include:
- Dynamic still capture processing latency estimation provides much more
accurate still capture latency estimates based on the current scene and
environment conditions. Call
CameraExtensionSession.getRealtimeStillCaptureLatency()to get aStillCaptureLatencyobject that has two latency estimation methods. ThegetCaptureLatency()method returns the estimated latency betweenonCaptureStartedandonCaptureProcessStarted(), and thegetProcessingLatency()method returns the estimated latency betweenonCaptureProcessStarted()and the final processed frame being available. - Support for capture progress callbacks so that apps can display the current
progress of long-running, still-capture processing operations. You can check
if this feature is available with
CameraExtensionCharacteristics.isCaptureProcessProgressAvailable, and if it is, you implement theonCaptureProcessProgressed()callback, which has the progress (from 0 to 100) passed in as a parameter. Extension specific metadata, such as
CaptureRequest.EXTENSION_STRENGTHfor dialing in the amount of an extension effect, such as the amount of background blur withEXTENSION_BOKEH.Postview Feature for Still Capture in camera extensions, which provides a less-processed image more quickly than the final image. If an extension has increased processing latency, a postview image could be provided as a placeholder to improve UX and switched out later for the final image. You can check if this feature is available with
CameraExtensionCharacteristics.isPostviewAvailable. Then you can pass anOutputConfigurationtoExtensionSessionConfiguration.setPostviewOutputConfiguration.Support for
SurfaceViewallowing for a more optimized and power-efficient preview render path.Support for tap to focus and zoom during extension usage.
In-Sensor-Zoom
When REQUEST_AVAILABLE_CAPABILITIES_STREAM_USE_CASE in
CameraCharacteristics contains
SCALER_AVAILABLE_STREAM_USE_CASES_CROPPED_RAW, your app
can use advanced sensor capabilities to give a cropped RAW stream the same
pixels as the full field of view by using a CaptureRequest
with a RAW target that has stream use case set to
CameraMetadata.SCALER_AVAILABLE_STREAM_USE_CASES_CROPPED_RAW.
By implementing the request override controls, the updated camera gives users
zoom control even before other camera controls are ready.
Lossless-USB-Audio
Android 14 unterstützt jetzt verlustfreie Audioformate für eine audiophile Wiedergabe über USB-Kopfhörer. Du kannst ein USB-Gerät nach seinen bevorzugten Mixerattributen abfragen, einen Listener für Änderungen an bevorzugten Mixerattributen registrieren und Mixerattribute mit der Klasse AudioMixerAttributes konfigurieren. Diese Klasse stellt das Format dar, z. B. Kanalmaske, Abtastrate und Verhalten des Audiomixers. Mit dieser Klasse kann Audio direkt gesendet werden, ohne dass es gemischt, die Lautstärke angepasst oder Verarbeitungseffekte angewendet werden.
Produktivität von Entwicklern und Tools
Credential Manager
Android 14 adds Credential Manager as a platform API, with additional support back to Android 4.4 (API level 19) devices through a Jetpack Library using Google Play services. Credential Manager aims to make sign-in easier for users with APIs that retrieve and store credentials with user-configured credential providers. Credential Manager supports multiple sign-in methods, including username and password, passkeys, and federated sign-in solutions (such as Sign-in with Google) in a single API.
Passkeys provide many advantages. For example, passkeys are built on industry standards, can work across different operating systems and browser ecosystems, and can be used with both websites and apps.
For more information, see the Credential Manager and passkeys documentation and the blogpost about Credential Manager and passkeys.
Health Connect
Health Connect is an on-device repository for user health and fitness data. It allows users to share data between their favorite apps, with a single place to control what data they want to share with these apps.
On devices running Android versions prior to Android 14, Health Connect is available to download as an app on the Google Play store. Starting with Android 14, Health Connect is part of the platform and receives updates through Google Play system updates without requiring a separate download. With this, Health Connect can be updated frequently, and your apps can rely on Health Connect being available on devices running Android 14 or higher. Users can access Health Connect from the Settings in their device, with privacy controls integrated into the system settings.
Health Connect includes several new features in Android 14, such as exercise routes, allowing users to share a route of their workout which can be visualized on a map. A route is defined as a list of locations saved within a window of time, and your app can insert routes into exercise sessions, tying them together. To ensure that users have complete control over this sensitive data, users must allow sharing individual routes with other apps.
For more information, see the Health Connection documentation and the blogpost on What's new in Android Health.
OpenJDK 17-Updates
Android 14 continues the work of refreshing Android's core libraries to align with the features in the latest OpenJDK LTS releases, including both library updates and Java 17 language support for app and platform developers.
The following features and improvements are included:
- Updated approximately 300
java.baseclasses to Java 17 support. - Text Blocks, which introduce multi-line string literals to the Java programming language.
- Pattern Matching for instanceof, which allows an object to
be treated as having a specific type in an
instanceofwithout any additional variables. - Sealed classes, which allow you restrict which classes and interfaces can extend or implement them.
Thanks to Google Play system updates (Project Mainline), over 600 million devices are enabled to receive the latest Android Runtime (ART) updates that include these changes. This is part of our commitment to give apps a more consistent, secure environment across devices, and to deliver new features and capabilities to users independent of platform releases.
Java and OpenJDK are trademarks or registered trademarks of Oracle and/or its affiliates.
Verbesserungen für App-Shops
Mit Android 14 werden mehrere PackageInstaller APIs eingeführt, mit denen App-Shops die Nutzerfreundlichkeit verbessern können.
Vor dem Herunterladen Installationsberechtigung anfordern
Für die Installation oder Aktualisierung einer App ist möglicherweise die Genehmigung des Nutzers erforderlich.
Beispielsweise, wenn ein Installationsprogramm, das die Berechtigung REQUEST_INSTALL_PACKAGES nutzt, versucht, eine neue App zu installieren. In früheren Android-Versionen können App-Shops die Nutzergenehmigung nur anfordern, nachdem APKs in die Installationssitzung geschrieben und die Sitzung festgeschrieben wurde.
Ab Android 14 können Installateure mit der Methode requestUserPreapproval() die Nutzereinwilligung vor dem Ausführen der Installationssitzung anfordern. Durch diese Verbesserung kann ein App-Shop das Herunterladen von APKs so lange verschieben, bis die Installation vom Nutzer genehmigt wurde. Sobald ein Nutzer die Installation genehmigt hat, kann der App-Shop die App im Hintergrund herunterladen und installieren, ohne den Nutzer zu unterbrechen.
Verantwortung für zukünftige Updates übernehmen
Mit der Methode setRequestUpdateOwnership() kann ein Installationsprogramm dem System mitteilen, dass es für zukünftige Updates einer installierten App verantwortlich sein möchte. Mit dieser Funktion kann die Inhaberschaft von Updates erzwungen werden. Das bedeutet, dass nur der Inhaber des Updates automatische Updates für die App installieren darf. So wird sichergestellt, dass Nutzer Updates nur über den erwarteten App-Shop erhalten.
Alle anderen Installationsprogramme, einschließlich derjenigen, die die Berechtigung INSTALL_PACKAGES verwenden, müssen die ausdrückliche Genehmigung des Nutzers einholen, um ein Update zu installieren. Wenn ein Nutzer sich für eine Aktualisierung aus einer anderen Quelle entscheidet, geht die Inhaberschaft für die Aktualisierung verloren.
Apps zu einer weniger störenden Zeit aktualisieren
App-Shops möchten in der Regel vermeiden, eine App zu aktualisieren, die aktiv verwendet wird, da dadurch die laufenden Prozesse der App beendet werden, was die Aktivitäten des Nutzers unterbrechen kann.
Ab Android 14 können Sie mit der InstallConstraints API dafür sorgen, dass Ihre App-Updates zum richtigen Zeitpunkt erfolgen. Ein App-Shop kann beispielsweise die Methode commitSessionAfterInstallConstraintsAreMet() aufrufen, um dafür zu sorgen, dass ein Update nur dann ausgeführt wird, wenn der Nutzer nicht mehr mit der betreffenden App interagiert.
Optionale Trennlinien nahtlos einfügen
Bei Split-APKs können Funktionen einer App in separaten APK-Dateien bereitgestellt werden, anstatt als monolithisches APK. Mit unterteilten APKs können App-Shops die Bereitstellung verschiedener App-Komponenten optimieren. App-Shops können beispielsweise basierend auf den Eigenschaften des Zielgeräts optimieren. Die PackageInstaller API unterstützt seit ihrer Einführung in API-Ebene 22 die Aufteilung.
Unter Android 14 kann ein Installer mit der Methode setDontKillApp() angeben, dass die laufenden Prozesse der App nicht beendet werden sollen, wenn neue Splits installiert werden. App-Shops können diese Funktion verwenden, um neue Funktionen einer App nahtlos zu installieren, während der Nutzer die App verwendet.
App-Metadaten-Bundles
Starting in Android 14, the Android package installer lets you specify app metadata, such as data safety practices, to include on app store pages such as Google Play.
Erkennen, wenn Nutzer Screenshots aufnehmen
To create a more standardized experience for detecting screenshots, Android 14 introduces a privacy-preserving screenshot detection API. This API lets apps register callbacks on a per-activity basis. These callbacks are invoked, and the user is notified, when the user takes a screenshot while that activity is visible.
Nutzererfahrung
Benutzerdefinierte Aktionen im Freigabeblatt und verbessertes Ranking
Android 14 updates the system sharesheet to support custom app actions and more informative preview results for users.
Add custom actions
With Android 14, your app can add custom actions to the system sharesheet it invokes.
Improve ranking of Direct Share targets
Android 14 uses more signals from apps to determine the ranking of the direct share targets to provide more helpful results for the user. To provide the most useful signal for ranking, follow the guidance for improving rankings of your Direct Share targets. Communication apps can also report shortcut usage for outgoing and incoming messages.
Unterstützung für integrierte und benutzerdefinierte Animationen für die intelligente „Zurück“-Touchgeste
Android 13 introduced the predictive back-to-home animation behind a developer option. When used in a supported app with the developer option enabled, swiping back shows an animation indicating that the back gesture exits the app back to the home screen.
Android 14 includes multiple improvements and new guidance for Predictive Back:
- You can set
android:enableOnBackInvokedCallback=trueto opt in to predictive back system animations per-Activity instead of for the entire app. - We've added new system animations to accompany the back-to-home animation from Android 13. The new system animations are cross-activity and cross-task, which you get automatically after migrating to Predictive Back.
- We've added new Material Component animations for Bottom sheets, Side sheets, and Search.
- We've created design guidance for creating custom in-app animations and transitions.
- We've added new APIs to support custom in-app transition animations:
handleOnBackStarted,handleOnBackProgressed,handleOnBackCancelledinOnBackPressedCallbackonBackStarted,onBackProgressed,onBackCancelledinOnBackAnimationCallback- Use
overrideActivityTransitioninstead ofoverridePendingTransitionfor transitions that respond as the user swipes back.
With this Android 14 preview release, all features of Predictive Back remain behind a developer option. See the developer guide to migrate your app to predictive back, as well as the developer guide to creating custom in-app transitions.
Herstellerüberschreibungen für Apps auf Geräten mit großem Display
Per-app overrides enable device manufacturers to change the behavior of apps on large screen devices. For example, the FORCE_RESIZE_APP override instructs the system to resize the app to fit display dimensions (avoiding size compatibility mode) even if resizeableActivity="false" is set in the app manifest.
Overrides are intended to improve the user experience on large screens.
New manifest properties enable you to disable some device manufacturer overrides for your app.
App-spezifische Überschreibungen für Nutzer mit großen Bildschirmen
Per-app overrides change the behavior of apps on large screen devices. For example, the OVERRIDE_MIN_ASPECT_RATIO_LARGE device manufacturer override sets the app aspect ratio to 16:9 regardless of the app's configuration.
Android 14 QPR1 enables users to apply per‑app overrides by means of a new settings menu on large screen devices.
App-Bildschirmfreigabe
App screen sharing enables users to share an app window instead of the entire device screen during screen content recording.
With app screen sharing, the status bar, navigation bar, notifications, and other system UI elements are excluded from the shared display. Only the content of the selected app is shared.
App screen sharing improves productivity and privacy by enabling users to run multiple apps but limit content sharing to a single app.
LLM-basierte Funktion „Intelligente Antworten“ in Gboard auf dem Pixel 8 Pro
Auf Google Pixel 8 Pro-Geräten mit dem Feature Drop vom Dezember können Entwickler intelligente Antworten in Gboard ausprobieren, die auf On-Device-Large Language Models (LLMs) basieren, die auf Google Tensor ausgeführt werden.
Diese Funktion ist in WhatsApp, Line und KakaoTalk als eingeschränkte Vorabversion für amerikanisches Englisch verfügbar. Dazu benötigen Sie ein Google Pixel 8 Pro mit Gboard als Tastatur.
Wenn Sie die Funktion ausprobieren möchten, aktivieren Sie sie zuerst unter Einstellungen > Entwickleroptionen > AICore-Einstellungen > „Persistente AICore-Daten aktivieren“.
Öffnen Sie als Nächstes eine Unterhaltung in einer unterstützten App, um LLM-basierte intelligente Antworten in der Vorschlagsleiste von Gboard als Antwort auf eingehende Nachrichten zu sehen.
Grafik
Pfade können abgefragt und interpoliert werden
Android's Path API is a powerful and flexible mechanism for
creating and rendering vector graphics, with the ability to stroke or fill a
path, construct a path from line segments or quadratic or cubic curves, perform
boolean operations to get even more complex shapes, or all of these
simultaneously. One limitation is the ability to find out what is actually in a
Path object; the internals of the object are opaque to callers after creation.
To create a Path, you call methods such as
moveTo(), lineTo(), and
cubicTo() to add path segments. But there has been no way to
ask that path what the segments are, so you must retain that information at
creation time.
Starting in Android 14, you can query paths to find out what's inside of them.
First, you need to get a PathIterator object using the
Path.getPathIterator API:
Kotlin
val path = Path().apply { moveTo(1.0f, 1.0f) lineTo(2.0f, 2.0f) close() } val pathIterator = path.pathIterator
Java
Path path = new Path(); path.moveTo(1.0F, 1.0F); path.lineTo(2.0F, 2.0F); path.close(); PathIterator pathIterator = path.getPathIterator();
Next, you can call PathIterator to iterate through the segments
one by one, retrieving all of the necessary data for each segment. This example
uses PathIterator.Segment objects, which packages up the data
for you:
Kotlin
for (segment in pathIterator) { println("segment: ${segment.verb}, ${segment.points}") }
Java
while (pathIterator.hasNext()) { PathIterator.Segment segment = pathIterator.next(); Log.i(LOG_TAG, "segment: " + segment.getVerb() + ", " + segment.getPoints()); }
PathIterator also has a non-allocating version of next() where you can pass
in a buffer to hold the point data.
One of the important use cases of querying Path data is interpolation. For
example, you might want to animate (or morph) between two different paths. To
further simplify that use case, Android 14 also includes the
interpolate() method on Path. Assuming the two paths have
the same internal structure, the interpolate() method creates a new Path
with that interpolated result. This example returns a path whose shape is
halfway (a linear interpolation of .5) between path and otherPath:
Kotlin
val interpolatedResult = Path() if (path.isInterpolatable(otherPath)) { path.interpolate(otherPath, .5f, interpolatedResult) }
Java
Path interpolatedResult = new Path(); if (path.isInterpolatable(otherPath)) { path.interpolate(otherPath, 0.5F, interpolatedResult); }
The Jetpack graphics-path library enables similar APIs for earlier versions of Android as well.
Benutzerdefinierte Meshes mit Vertex- und Fragment-Shadern
Android unterstützt schon lange das Zeichnen von Dreiecksnetzen mit benutzerdefinierter Schattierung. Das Eingabe-Mesh-Format war jedoch auf einige vordefinierte Kombinationen von Attributen beschränkt. Android 14 unterstützt benutzerdefinierte 3D-Meshes, die als Dreiecke oder Dreiecksstreifen definiert werden können und optional indexiert werden können. Diese Meshes werden mit benutzerdefinierten Attributen, Vertex-Strides, Variierenden sowie Vertex- und Fragment-Shadern in AGSL angegeben.
Der Vertex-Shader definiert die Variablen wie Position und Farbe, während der Fragment-Shader optional die Farbe für das Pixel definieren kann, in der Regel unter Verwendung der vom Vertex-Shader erstellten Variablen. Wenn die Farbe vom Fragment-Shader bereitgestellt wird, wird sie mit der aktuellen Paint-Farbe mithilfe des Blendmodus gemischt, der beim Zeichnen des Mesh ausgewählt wurde. Uniforms können für zusätzliche Flexibilität an die Fragment- und Vertex-Shader übergeben werden.
Hardware-Buffer-Renderer für Canvas
To assist in using Android's Canvas API to draw with
hardware acceleration into a HardwareBuffer, Android 14
introduces HardwareBufferRenderer. This API is
particularly useful when your use case involves communication with the system
compositor through SurfaceControl for low-latency
drawing.