Auf dieser Seite erfahren Sie mehr über die Architektur von CameraX, einschließlich ihrer Struktur, der Arbeit mit der API, der Arbeit mit Lebenszyklen und der Kombination von Anwendungsfällen.
CameraX-Struktur
Mit CameraX können Sie die Kamera eines Geräts über ein Abstraktion, die als Anwendungsfall bezeichnet wird. Folgende Anwendungsfälle sind verfügbar:
- Vorschau: Hier wird eine Oberfläche für die Anzeige einer Vorschau akzeptiert, z. B. eine
PreviewView
. - Bildanalyse: stellt CPU-zugängliche Zwischenspeicher für Analysen bereit, z. B. für maschinelles Lernen.
- Bildaufnahme: Hiermit wird ein Foto aufgenommen und gespeichert.
- Videoaufnahme: Mit
VideoCapture
können Sie Video- und Audioinhalte aufnehmen.
Anwendungsfälle können kombiniert und gleichzeitig aktiv sein. Eine App kann beispielsweise über einen Anwendungsfall für die Vorschau die Bilder anzeigen, die die Kamera sieht, einen Anwendungsfall für die Bildanalyse haben, der feststellt, ob die Personen auf dem Foto lächeln, und einen Anwendungsfall für die Bildaufnahme enthalten, um ein Foto aufzunehmen, sobald das der Fall ist.
API-Modell
Für die Arbeit mit der Bibliothek müssen Sie Folgendes angeben:
- Der gewünschte Anwendungsfall mit Konfigurationsoptionen.
- Was mit Ausgabedaten durch Anhängen von Listenern geschehen soll.
- Der beabsichtigte Ablauf, z. B. wann Kameras aktiviert und wann Daten erzeugt werden, Binden Sie den Anwendungsfall an die Android-Architektur Lebenszyklen:
Es gibt zwei Möglichkeiten, eine CameraX-App zu erstellen: eine CameraController
(ideal, wenn Sie CameraX auf die einfachste Weise verwenden möchten) oder eine CameraProvider
(ideal, wenn Sie mehr Flexibilität benötigen).
Kamera-Controller
Ein CameraController
bietet die meisten Hauptfunktionen von CameraX in einem
. Es erfordert nur wenig Einrichtungscode und übernimmt automatisch die Kamerainitialisierung, die Verwaltung von Anwendungsfällen, die Zieldrehung, das Fokussieren durch Tippen und das Zoomen durch Zusammenziehen und Auseinanderziehen der Finger. Die konkrete Klasse, die CameraController
erweitert, ist LifecycleCameraController
.
Kotlin
val previewView: PreviewView = viewBinding.previewView var cameraController = LifecycleCameraController(baseContext) cameraController.bindToLifecycle(this) cameraController.cameraSelector = CameraSelector.DEFAULT_BACK_CAMERA previewView.controller = cameraController
Java
PreviewView previewView = viewBinding.previewView; LifecycleCameraController cameraController = new LifecycleCameraController(baseContext); cameraController.bindToLifecycle(this); cameraController.setCameraSelector(CameraSelector.DEFAULT_BACK_CAMERA); previewView.setController(cameraController);
Die Standard-UseCase
s für CameraController
sind Preview
, ImageCapture
und ImageAnalysis
. Zum Ausschalten von ImageCapture
oder ImageAnalysis
VideoCapture
aktiviert haben, verwenden Sie
setEnabledUseCases()
.
Weitere Verwendungsmöglichkeiten für CameraController
finden Sie in der
Beispiel für QR-Code-Scanner
oder die
Video zu den Grundlagen von CameraController
.
CameraProvider
Ein CameraProvider
ist weiterhin einfach zu verwenden. Da der App-Entwickler jedoch einen größeren Teil der Einrichtung übernimmt, gibt es mehr Möglichkeiten, die Konfiguration anzupassen, z. B. die Ausgabebilddrehung zu aktivieren oder das Ausgabebildformat in ImageAnalysis
festzulegen. Sie können auch eine benutzerdefinierte Surface
für die Kameravorschau verwenden, was mehr Flexibilität bietet. Bei CameraController müssen Sie dagegen eine PreviewView
verwenden. Die Verwendung Ihres vorhandenen Surface
-Codes könnte nützlich sein, wenn er
bereits in andere Teile
Ihrer App einfließen lassen.
Sie konfigurieren Anwendungsfälle mit set()
-Methoden und schließen sie mit der build()
ab
. Jedes Anwendungsfallobjekt bietet eine Reihe von nutzungsfallspezifischen APIs. Für
Der Anwendungsfall zur Bilderfassung bietet einen takePicture()
-Methodenaufruf.
Anstatt dass eine Anwendung bestimmte Start- und Stoppmethodenaufrufe in onResume()
und onPause()
platziert, gibt die Anwendung mit cameraProvider.bindToLifecycle()
einen Lebenszyklus an, mit dem die Kamera verknüpft werden soll.
Dieser Lebenszyklus informiert CameraX dann darüber, wann die Kameraaufnahmesitzung konfiguriert werden soll, und sorgt dafür, dass sich der Kamerastatus entsprechend den Lebenszyklusübergängen ändert.
Implementierungsschritte für die einzelnen Anwendungsfälle finden Sie unter Implementieren eines „preview“, „Analysieren“ Bilder, Bild Capture und Videoaufnahme.
Der Anwendungsfall „Vorschau“ interagiert mit einem
Surface
für die Anzeige. In Anwendungen wird der Anwendungsfall mit Konfigurationsoptionen mit dem folgenden Code erstellt:
Kotlin
val preview = Preview.Builder().build() val viewFinder: PreviewView = findViewById(R.id.previewView) // The use case is bound to an Android Lifecycle with the following code val camera = cameraProvider.bindToLifecycle(lifecycleOwner, cameraSelector, preview) // PreviewView creates a surface provider and is the recommended provider preview.setSurfaceProvider(viewFinder.getSurfaceProvider())
Java
Preview preview = new Preview.Builder().build(); PreviewView viewFinder = findViewById(R.id.view_finder); // The use case is bound to an Android Lifecycle with the following code Camera camera = cameraProvider.bindToLifecycle(lifecycleOwner, cameraSelector, preview); // PreviewView creates a surface provider, using a Surface from a different // kind of view will require you to implement your own surface provider. preview.previewSurfaceProvider = viewFinder.getSurfaceProvider();
Einen weiteren Beispielcode findest du im offiziellen CameraX-Beispiel. App.
Kamera-Lebenszyklen
CameraX überwacht einen Lebenszyklus, um zu bestimmen, wann die Kamera geöffnet, wann eine Aufnahmesitzung erstellt und wann die Aufnahme beendet und die Kamera heruntergefahren werden soll. Anwendungsfall-APIs bieten Methodenaufrufe und Callbacks an, um den Fortschritt zu überwachen.
Wie unter Anwendungsfälle kombinieren erläutert, können Sie eine Mischung aus Anwendungsfällen an einen einzelnen Lebenszyklus binden. Wenn deine App Anwendungsfälle unterstützen muss, nicht kombiniert werden können, haben Sie folgende Möglichkeiten:
- Kompatible Anwendungsfälle zu mehr als einem zusammenfassen fragment und wechseln Sie dann Fragmente
- Benutzerdefinierte Lebenszykluskomponente erstellen und damit den Kameralebenszyklus manuell steuern
Wenn Sie Sicht- und Kameraanwendungsfälle entkoppeln, Lebenszyklusinhaber (z. B.
wenn Sie einen benutzerdefinierten Lebenszyklus oder eine
Fragment), können Sie
müssen sicherstellen, dass alle Anwendungsfälle mit CameraX getrennt sind, indem
ProcessCameraProvider.unbindAll()
oder die Verknüpfung für jeden Anwendungsfall einzeln aufheben. Wenn Sie stattdessen binden, verwenden Sie
Lebenszyklus zu erreichen, können Sie CameraX
das Öffnen und Schließen der Aufzeichnungssitzung und das Aufheben der Bindung der Anwendungsfälle verwalten.
Wenn alle Kamerafunktionen dem Lebenszyklus einer einzelnen lebenszyklusbewussten Komponente entsprechen, z. B. einem AppCompatActivity
- oder einem AppCompat
-Fragment, wird durch die Verwendung des Lebenszyklus dieser Komponente beim Binden aller gewünschten Anwendungsfälle sichergestellt, dass die Kamerafunktionen bereit sind, wenn die lebenszyklusbewusste Komponente aktiv ist, und andernfalls sicher entsorgt werden, ohne Ressourcen zu verbrauchen.
Benutzerdefinierte Lebenszyklusinhaber
Für fortgeschrittene Fälle können Sie eine benutzerdefinierte
LifecycleOwner
zum Aktivieren Ihres
kann der CameraX-Sitzungslebenszyklus explizit gesteuert werden, anstatt sie mit einem
Android-Standardversion LifecycleOwner
Das folgende Codebeispiel zeigt, wie Sie einen einfachen benutzerdefinierten LifecycleOwner erstellen:
Kotlin
class CustomLifecycle : LifecycleOwner { private val lifecycleRegistry: LifecycleRegistry init { lifecycleRegistry = LifecycleRegistry(this); lifecycleRegistry.markState(Lifecycle.State.CREATED) } ... fun doOnResume() { lifecycleRegistry.markState(State.RESUMED) } ... override fun getLifecycle(): Lifecycle { return lifecycleRegistry } }
Java
public class CustomLifecycle implements LifecycleOwner { private LifecycleRegistry lifecycleRegistry; public CustomLifecycle() { lifecycleRegistry = new LifecycleRegistry(this); lifecycleRegistry.markState(Lifecycle.State.CREATED); } ... public void doOnResume() { lifecycleRegistry.markState(State.RESUMED); } ... public Lifecycle getLifecycle() { return lifecycleRegistry; } }
Mit diesem LifecycleOwner
kann deine App zu gewünschten Statusübergängen wechseln
Punkte in seinem Code. Weitere Informationen zur Implementierung dieser Funktion in Ihrer App finden Sie unter Benutzerdefinierten LifecycleOwner implementieren.
Parallele Anwendungsfälle
Anwendungsfälle können gleichzeitig ausgeführt werden. Anwendungsfälle können zwar nacheinander an einen Lebenszyklus gebunden werden, es ist jedoch besser, alle Anwendungsfälle mit einem einzigen Aufruf von CameraProcessProvider.bindToLifecycle()
zu binden. Weitere Informationen zu Best Practices für Konfigurationsänderungen finden Sie unter Konfigurationsänderungen verarbeiten.
Im folgenden Codebeispiel werden in der App die beiden Anwendungsfälle angegeben, die erstellt und gleichzeitig ausgeführt werden sollen. Außerdem wird der Lebenszyklus für beide Anwendungsfälle angegeben. sodass sie je nach Lebenszyklus gestartet und beendet werden.
Kotlin
private lateinit var imageCapture: ImageCapture override fun onCreate(savedInstanceState: Bundle?) { super.onCreate(savedInstanceState) setContentView(R.layout.activity_main) val cameraProviderFuture = ProcessCameraProvider.getInstance(this) cameraProviderFuture.addListener(Runnable { // Camera provider is now guaranteed to be available val cameraProvider = cameraProviderFuture.get() // Set up the preview use case to display camera preview. val preview = Preview.Builder().build() // Set up the capture use case to allow users to take photos. imageCapture = ImageCapture.Builder() .setCaptureMode(ImageCapture.CAPTURE_MODE_MINIMIZE_LATENCY) .build() // Choose the camera by requiring a lens facing val cameraSelector = CameraSelector.Builder() .requireLensFacing(CameraSelector.LENS_FACING_FRONT) .build() // Attach use cases to the camera with the same lifecycle owner val camera = cameraProvider.bindToLifecycle( this as LifecycleOwner, cameraSelector, preview, imageCapture) // Connect the preview use case to the previewView preview.setSurfaceProvider( previewView.getSurfaceProvider()) }, ContextCompat.getMainExecutor(this)) }
Java
private ImageCapture imageCapture; @Override public void onCreate(@Nullable Bundle savedInstanceState) { super.onCreate(savedInstanceState); setContentView(R.layout.activity_main); PreviewView previewView = findViewById(R.id.previewView); ListenableFuture<ProcessCameraProvider> cameraProviderFuture = ProcessCameraProvider.getInstance(this); cameraProviderFuture.addListener(() -> { try { // Camera provider is now guaranteed to be available ProcessCameraProvider cameraProvider = cameraProviderFuture.get(); // Set up the view finder use case to display camera preview Preview preview = new Preview.Builder().build(); // Set up the capture use case to allow users to take photos imageCapture = new ImageCapture.Builder() .setCaptureMode(ImageCapture.CAPTURE_MODE_MINIMIZE_LATENCY) .build(); // Choose the camera by requiring a lens facing CameraSelector cameraSelector = new CameraSelector.Builder() .requireLensFacing(lensFacing) .build(); // Attach use cases to the camera with the same lifecycle owner Camera camera = cameraProvider.bindToLifecycle( ((LifecycleOwner) this), cameraSelector, preview, imageCapture); // Connect the preview use case to the previewView preview.setSurfaceProvider( previewView.getSurfaceProvider()); } catch (InterruptedException | ExecutionException e) { // Currently no exceptions thrown. cameraProviderFuture.get() // shouldn't block since the listener is being called, so no need to // handle InterruptedException. } }, ContextCompat.getMainExecutor(this)); }
Mit CameraX können jeweils eine Instanz von Preview
, VideoCapture
, ImageAnalysis
und ImageCapture
gleichzeitig verwendet werden. Außerdem
- Jeder Anwendungsfall kann für sich stehen. Eine App kann z. B. Videos aufzeichnen. ohne die Vorschau zu verwenden.
- Wenn Erweiterungen aktiviert sind, funktioniert nur die Kombination aus
ImageCapture
undPreview
garantiert. Je nach OEM-Implementierung Möglicherweise ist es nicht möglich, auchImageAnalysis
hinzuzufügen. Erweiterungen können nicht für den AnwendungsfallVideoCapture
aktiviert werden. Überprüfen Sie die Referenzdokument zu Erweiterungen . - Je nach Kamerafunktion unterstützen einige Kameras die Kombination bei niedrigeren Auflösungen, aber nicht bei höheren Auflösungen.
- Auf Geräten mit Kamera-Hardwarestufe
FULL
oder niedriger, diePreview
kombiniert,VideoCapture
und entwederImageCapture
oderImageAnalysis
kann CameraX erzwingen um denPRIV
-Stream der Kamera fürPreview
undVideoCapture
zu duplizieren. Diese Duplizierung, die als Streamfreigabe bezeichnet wird, ermöglicht die gleichzeitige Nutzung dieser Funktionen, geht aber mit erhöhten Verarbeitungsanforderungen einher. Möglicherweise Dies führt zu einer geringfügig höheren Latenz und kürzerer Akkulaufzeit.
Die Ebene der unterstützten Hardware
kann aus Camera2CameraInfo
abgerufen werden. Mit dem folgenden Code wird beispielsweise geprüft, ob die standardmäßige Rückkamera ein LEVEL_3
-Gerät ist:
Kotlin
@androidx.annotation.OptIn(ExperimentalCamera2Interop::class) fun isBackCameraLevel3Device(cameraProvider: ProcessCameraProvider) : Boolean { if (Build.VERSION.SDK_INT >= Build.VERSION_CODES.N) { return CameraSelector.DEFAULT_BACK_CAMERA .filter(cameraProvider.availableCameraInfos) .firstOrNull() ?.let { Camera2CameraInfo.from(it) } ?.getCameraCharacteristic(CameraCharacteristics.INFO_SUPPORTED_HARDWARE_LEVEL) == CameraCharacteristics.INFO_SUPPORTED_HARDWARE_LEVEL_3 } return false }
Java
@androidx.annotation.OptIn(markerClass = ExperimentalCamera2Interop.class) Boolean isBackCameraLevel3Device(ProcessCameraProvider cameraProvider) { if (Build.VERSION.SDK_INT >= Build.VERSION_CODES.N) { List\<CameraInfo\> filteredCameraInfos = CameraSelector.DEFAULT_BACK_CAMERA .filter(cameraProvider.getAvailableCameraInfos()); if (!filteredCameraInfos.isEmpty()) { return Objects.equals( Camera2CameraInfo.from(filteredCameraInfos.get(0)).getCameraCharacteristic( CameraCharacteristics.INFO_SUPPORTED_HARDWARE_LEVEL), CameraCharacteristics.INFO_SUPPORTED_HARDWARE_LEVEL_3); } } return false; }
Berechtigungen
Deine App benötigt die
CAMERA
-Berechtigung. Zum Speichern von Bildern in Dateien ist außerdem die Berechtigung WRITE_EXTERNAL_STORAGE
erforderlich, mit Ausnahme von Geräten mit Android 10 oder höher.
Weitere Informationen zum Konfigurieren von Berechtigungen für Ihre App finden Sie unter App-Berechtigungen anfordern.
Voraussetzungen
Für CameraX gelten die folgenden Mindestversionsanforderungen:
- Android API-Level 21
- Android-Architekturkomponenten 1.1.1
Verwenden Sie für zyklusabhängige Aktivitäten FragmentActivity
oder AppCompatActivity
.
Abhängigkeiten deklarieren
Um eine Abhängigkeit von CameraX hinzuzufügen, müssen Sie das Maven von Google mit Ihrem Projekt verknüpfen.
Öffnen Sie die Datei settings.gradle
für Ihr Projekt und fügen Sie das Repository google()
hinzu.
wie hier gezeigt:
Groovy
dependencyResolutionManagement { repositoriesMode.set(RepositoriesMode.FAIL_ON_PROJECT_REPOS) repositories { google() mavenCentral() } }
Kotlin
dependencyResolutionManagement { repositoriesMode.set(RepositoriesMode.FAIL_ON_PROJECT_REPOS) repositories { google() mavenCentral() } }
Fügen Sie am Ende des Android-Blocks Folgendes hinzu:
Groovy
android { compileOptions { sourceCompatibility JavaVersion.VERSION_1_8 targetCompatibility JavaVersion.VERSION_1_8 } // For Kotlin projects kotlinOptions { jvmTarget = "1.8" } }
Kotlin
android { compileOptions { sourceCompatibility = JavaVersion.VERSION_1_8 targetCompatibility = JavaVersion.VERSION_1_8 } // For Kotlin projects kotlinOptions { jvmTarget = "1.8" } }
Fügen Sie der build.gradle
-Datei jedes Moduls für eine App Folgendes hinzu:
Cool
dependencies { // CameraX core library using the camera2 implementation def camerax_version = "1.5.0-alpha01" // The following line is optional, as the core library is included indirectly by camera-camera2 implementation "androidx.camera:camera-core:${camerax_version}" implementation "androidx.camera:camera-camera2:${camerax_version}" // If you want to additionally use the CameraX Lifecycle library implementation "androidx.camera:camera-lifecycle:${camerax_version}" // If you want to additionally use the CameraX VideoCapture library implementation "androidx.camera:camera-video:${camerax_version}" // If you want to additionally use the CameraX View class implementation "androidx.camera:camera-view:${camerax_version}" // If you want to additionally add CameraX ML Kit Vision Integration implementation "androidx.camera:camera-mlkit-vision:${camerax_version}" // If you want to additionally use the CameraX Extensions library implementation "androidx.camera:camera-extensions:${camerax_version}" }
Kotlin
dependencies { // CameraX core library using the camera2 implementation val camerax_version = "1.5.0-alpha01" // The following line is optional, as the core library is included indirectly by camera-camera2 implementation("androidx.camera:camera-core:${camerax_version}") implementation("androidx.camera:camera-camera2:${camerax_version}") // If you want to additionally use the CameraX Lifecycle library implementation("androidx.camera:camera-lifecycle:${camerax_version}") // If you want to additionally use the CameraX VideoCapture library implementation("androidx.camera:camera-video:${camerax_version}") // If you want to additionally use the CameraX View class implementation("androidx.camera:camera-view:${camerax_version}") // If you want to additionally add CameraX ML Kit Vision Integration implementation("androidx.camera:camera-mlkit-vision:${camerax_version}") // If you want to additionally use the CameraX Extensions library implementation("androidx.camera:camera-extensions:${camerax_version}") }
Weitere Informationen dazu, wie Sie Ihre App so konfigurieren, dass sie diesen Anforderungen entspricht, Siehe Deklarieren Abhängigkeiten.
Interoperabilität von CameraX mit Camera2
CameraX basiert auf Camera2 und bietet Möglichkeiten zum Lesen und sogar zum Schreiben von Eigenschaften in der Camera2-Implementierung. Detaillierte Informationen finden Sie in der Interop-Paket
Weitere Informationen darüber, wie KameraX die Eigenschaften von Kamera2 konfiguriert hat, findest du unter
Camera2CameraInfo
um den zugrunde liegenden CameraCharacteristics
zu lesen. Sie können auch die zugrunde liegende Kamera2 schreiben.
auf einen der folgenden zwei Wege:
Verwenden Sie
Camera2CameraControl
, mit der Sie Attribute für die zugrunde liegendeCaptureRequest
, wie der Autofokusmodus.KameraX
UseCase
um einCamera2Interop.Extender
So können Sie Attribute für CaptureRequest festlegen,Camera2CameraControl
Außerdem stehen euch zusätzliche Steuerungsmöglichkeiten zur Verfügung. So könnt ihr z. B. den Anwendungsfall des Streams auf einen bestimmten die Kamera für Ihr Anwendungsszenario zu optimieren. Weitere Informationen finden Sie unter Anwendungsfälle für Streams zur besseren Leistung.
Im folgenden Codebeispiel werden Stream-Anwendungsfälle für die Optimierung für Videoanrufe verwendet.
Mit Camera2CameraInfo
kannst du abrufen, ob der Anwendungsfall für Videoanrufstreams verfügbar ist. Verwenden Sie dann
Camera2Interop.Extender
um den Anwendungsfall für den zugrunde liegenden Stream festzulegen.
Kotlin
// Set underlying Camera2 stream use case to optimize for video calls. val videoCallStreamId = CameraMetadata.SCALER_AVAILABLE_STREAM_USE_CASES_VIDEO_CALL.toLong() // Check available CameraInfos to find the first one that supports // the video call stream use case. val frontCameraInfo = cameraProvider.getAvailableCameraInfos() .first { cameraInfo -> val isVideoCallStreamingSupported = Camera2CameraInfo.from(cameraInfo) .getCameraCharacteristic( CameraCharacteristics.SCALER_AVAILABLE_STREAM_USE_CASES )?.contains(videoCallStreamId) val isFrontFacing = (cameraInfo.getLensFacing() == CameraSelector.LENS_FACING_FRONT) (isVideoCallStreamingSupported == true) && isFrontFacing } val cameraSelector = frontCameraInfo.cameraSelector // Start with a Preview Builder. val previewBuilder = Preview.Builder() .setTargetAspectRatio(screenAspectRatio) .setTargetRotation(rotation) // Use Camera2Interop.Extender to set the video call stream use case. Camera2Interop.Extender(previewBuilder).setStreamUseCase(videoCallStreamId) // Bind the Preview UseCase and the corresponding CameraSelector. val preview = previewBuilder.build() camera = cameraProvider.bindToLifecycle(this, cameraSelector, preview)
Java
// Set underlying Camera2 stream use case to optimize for video calls. Long videoCallStreamId = CameraMetadata.SCALER_AVAILABLE_STREAM_USE_CASES_VIDEO_CALL.toLong(); // Check available CameraInfos to find the first one that supports // the video call stream use case. List<CameraInfo> cameraInfos = cameraProvider.getAvailableCameraInfos(); CameraInfo frontCameraInfo = null; for (cameraInfo in cameraInfos) { Long[] availableStreamUseCases = Camera2CameraInfo.from(cameraInfo) .getCameraCharacteristic( CameraCharacteristics.SCALER_AVAILABLE_STREAM_USE_CASES ); boolean isVideoCallStreamingSupported = Arrays.List(availableStreamUseCases) .contains(videoCallStreamId); boolean isFrontFacing = (cameraInfo.getLensFacing() == CameraSelector.LENS_FACING_FRONT); if (isVideoCallStreamingSupported && isFrontFacing) { frontCameraInfo = cameraInfo; } } if (frontCameraInfo == null) { // Handle case where video call streaming is not supported. } CameraSelector cameraSelector = frontCameraInfo.getCameraSelector(); // Start with a Preview Builder. Preview.Builder previewBuilder = Preview.Builder() .setTargetAspectRatio(screenAspectRatio) .setTargetRotation(rotation); // Use Camera2Interop.Extender to set the video call stream use case. Camera2Interop.Extender(previewBuilder).setStreamUseCase(videoCallStreamId); // Bind the Preview UseCase and the corresponding CameraSelector. Preview preview = previewBuilder.build() Camera camera = cameraProvider.bindToLifecycle(this, cameraSelector, preview)
Weitere Informationen
Weitere Informationen zu CameraX finden Sie in den folgenden zusätzlichen Ressourcen.
Codelab
Codebeispiel