Cómo crear una app básica de edición de video con Media3 Transformer

Las APIs de Transformer en Jetpack Media3 están diseñadas para que la edición de contenido multimedia sea confiable y de alto rendimiento. Transformer admite varias operaciones, como las siguientes:

  • Modificar un video con recorte, escalamiento y rotación
  • Agregar efectos, como superposiciones y filtros
  • Procesamiento de formatos especiales, como HDR y video en cámara lenta
  • Exporta un elemento multimedia después de aplicar ediciones

En esta página, se explican algunos de los casos de uso clave que abarca Transformer. Para obtener más detalles, consulta nuestras guías completas sobre Media3 Transformer.

Comenzar

Para comenzar, agrega una dependencia en los módulos Transformer, Effect y Common de Media3 de Jetpack:

implementation "androidx.media3:media3-transformer:1.4.1"
implementation "androidx.media3:media3-effect:1.4.1"
implementation "androidx.media3:media3-common:1.4.1"

Asegúrate de reemplazar 1.4.1 por la versión que prefieras de la biblioteca. Puedes consultar las notas de la versión para ver la versión más reciente.

Clases importantes

Clase Propósito
Transformer Inicia y detén transformaciones, y verifica si hay actualizaciones de progreso en una transformación en ejecución.
EditedMediaItem Representa un elemento multimedia que se procesará y las ediciones que se le aplicarán.
Effects Una colección de efectos de audio y video.

Configura el resultado

Con Transformer.Builder, ahora puedes especificar el directorio videoMimeType y audioMimetype configurando la función sin necesidad de crear un objeto TransformationRequest.

Cómo transcodificar entre formatos

En el siguiente código, se muestra cómo configurar un objeto Transformer para que genere video H.265/AVC y audio AAC:

Kotlin

val transformer = Transformer.Builder(context)
    .setVideoMimeType(MimeTypes.VIDEO_H265)
    .setAudioMimeType(MimeTypes.AUDIO_AAC)
    .build()

Java

Transformer transformer = new Transformer.Builder(context)
    .setVideoMimeType(MimeTypes.VIDEO_H265)
    .setAudioMimeType(MimeTypes.AUDIO_AAC)
    .build();

Si el formato multimedia de entrada ya coincide con la solicitud de transformación para audio o video, Transformer cambiará de forma automática a transmuxing, es decir, copiando las muestras comprimidas del contenedor de entrada al contenedor de salida sin realizar modificaciones. Esto evita el costo de procesamiento y la posible pérdida de calidad de la decodificación y la nueva codificación en el mismo formato.

Cómo configurar el modo HDR

Si el archivo multimedia de entrada está en formato HDR, puedes elegir entre algunos modos diferentes para la forma en que Transformer procesa la información HDR. Es probable que quieras usar HDR_MODE_KEEP_HDR o HDR_MODE_TONE_MAP_HDR_TO_SDR_USING_OPEN_GL.

HDR_MODE_KEEP_HDR HDR_MODE_TONE_MAP_HDR_TO_SDR_USING_OPEN_GL
Descripción Conserva los datos HDR, lo que significa que el formato de salida HDR es el mismo que el formato de entrada HDR. Asigna el tono de la entrada HDR a SDR con un asignador de tono OpenGL, lo que significa que el formato de salida será SDR.
Asistencia Se admite en niveles de API 31 y superiores para dispositivos que incluyen un codificador con la función FEATURE_HdrEditing. Compatible con el nivel de API 29 y versiones posteriores.
Errores Si no se admite, intenta usar HDR_MODE_TONE_MAP_HDR_TO_SDR_USING_OPEN_GL en su lugar. Si no es compatible, arroja una ExportException.

En los dispositivos que admiten las capacidades de codificación requeridas y ejecutan Android 13 (nivel de API 33) o versiones posteriores, los objetos Transformer te permiten editar videos HDR. HDR_MODE_KEEP_HDR es el modo predeterminado cuando se compila el objeto Composition, como se muestra en el siguiente código:

Kotlin

val composition = Composition.Builder(
    ImmutableList.of(videoSequence))
    .setHdrMode(HDR_MODE_KEEP_HDR)
    .build()

Java

Composition composition = new Composition.Builder(
    ImmutableList.of(videoSequence))
    .setHdrMode(Composition.HDR_MODE_KEEP_HDR)
    .build();

Prepara un elemento multimedia

Un MediaItem representa un elemento de audio o video en tu app. Un EditedMediaItem recopila un MediaItem junto con las transformaciones que se le aplicarán.

Cómo recortar un video

Para quitar partes no deseadas de un video, puedes configurar posiciones de inicio y finalización personalizadas agregando un ClippingConfiguration a MediaItem.

Kotlin

val clippingConfiguration = MediaItem.ClippingConfiguration.Builder()
    .setStartPositionMs(10_000) // start at 10 seconds
    .setEndPositionMs(20_000) // end at 20 seconds
    .build()
val mediaItem = MediaItem.Builder()
    .setUri(videoUri)
    .setClippingConfiguration(clippingConfiguration)
    .build()

Java

ClippingConfiguration clippingConfiguration = new MediaItem.ClippingConfiguration.Builder()
    .setStartPositionMs(10_000) // start at 10 seconds
    .setEndPositionMs(20_000) // end at 20 seconds
    .build();
MediaItem mediaItem = new MediaItem.Builder()
    .setUri(videoUri)
    .setClippingConfiguration(clippingConfiguration)
    .build();

Cómo usar efectos integrados

Media3 incluye una serie de efectos de video integrados para transformaciones comunes, por ejemplo:

Clase Efecto
Presentation Ajustar el elemento multimedia por resolución o relación de aspecto
ScaleAndRotateTransformation Ajustar el elemento multimedia con un multiplicador o rotarlo
Crop Recorta el elemento multimedia a un marco más pequeño o más grande
OverlayEffect Agrega una superposición de texto o imagen sobre el elemento multimedia.

Para los efectos de audio, puedes agregar una secuencia de instancias de AudioProcessor que transformarán los datos de audio sin procesar (PCM). Por ejemplo, puedes usar un ChannelMixingAudioProcessor para mezclar y escalar canales de audio.

Para usar estos efectos, crea una instancia del efecto o del procesador de audio, compila una instancia de Effects con los efectos de audio y video que deseas aplicar al elemento multimedia y, luego, agrega el objeto Effects a un EditedMediaItem.

Kotlin

val channelMixingProcessor = ChannelMixingAudioProcessor()
val rotateEffect = ScaleAndRotateTransformation.Builder().setRotationDegrees(60f).build()
val cropEffect = Crop(-0.5f, 0.5f, -0.5f, 0.5f)

val effects = Effects(listOf(channelMixingProcessor), listOf(rotateEffect, cropEffect))

val editedMediaItem = EditedMediaItem.Builder(mediaItem)
    .setEffects(effects)
    .build()

Java

ChannelMixingAudioProcessor channelMixingProcessor = new ChannelMixingAudioProcessor();
ScaleAndRotateTransformation rotateEffect = new ScaleAndRotateTransformation.Builder()
    .setRotationDegrees(60f)
    .build();
Crop cropEffect = new Crop(-0.5f, 0.5f, -0.5f, 0.5f);

Effects effects = new Effects(
    ImmutableList.of(channelMixingProcessor),
    ImmutableList.of(rotateEffect, cropEffect)
);

EditedMediaItem editedMediaItem = new EditedMediaItem.Builder(mediaItem)
    .setEffects(effects)
    .build();

Crea efectos personalizados

Si extiendes los efectos incluidos en Media3, puedes crear efectos personalizados específicos para tus casos de uso. En el siguiente ejemplo, usa la subclase MatrixTransformation para acercar el video y que ocupe todo el fotograma durante el primer segundo de reproducción:

Kotlin

val zoomEffect = MatrixTransformation { presentationTimeUs ->
    val transformationMatrix = Matrix()
    // Set the scaling factor based on the playback position
    val scale = min(1f, presentationTimeUs / 1_000f)
    transformationMatrix.postScale(/* x */ scale, /* y */ scale)
    transformationMatrix
}

val editedMediaItem = EditedMediaItem.Builder(inputMediaItem)
    .setEffects(Effects(listOf(), listOf(zoomEffect))
    .build()

Java

MatrixTransformation zoomEffect = presentationTimeUs -> {
    Matrix transformationMatrix = new Matrix();
    // Set the scaling factor based on the playback position
    float scale = min(1f, presentationTimeUs / 1_000f);
    transformationMatrix.postScale(/* x */ scale, /* y */ scale);
    return transformationMatrix;
};

EditedMediaItem editedMediaItem = new EditedMediaItem.Builder(inputMediaItem)
    .setEffects(new Effects(ImmutableList.of(), ImmutableList.of(zoomEffect)))
    .build();

Para personalizar aún más el comportamiento de un efecto, implementa un GlShaderProgram. El método queueInputFrame() se usa para procesar fotogramas de entrada. Por ejemplo, para aprovechar las capacidades de aprendizaje automático de MediaPipe, puedes usar un FrameProcessor de MediaPipe para enviar cada fotograma a través de un gráfico de MediaPipe. Observa un ejemplo de esto en la app de demostración de Transformer.

Obtén una vista previa de los efectos

Con ExoPlayer, puedes obtener una vista previa de los efectos agregados a un elemento multimedia antes de iniciar el proceso de exportación. Con el mismo objeto Effects que se usa para EditedMediaItem, llama a setVideoEffects() en tu instancia de ExoPlayer.

Kotlin

val player = ExoPlayer.builder(context)
    .build()
    .also { exoPlayer ->
        exoPlayer.setMediaItem(inputMediaItem)
        exoPlayer.setVideoEffects(effects)
        exoPlayer.prepare()
    }

Java

ExoPlayer player = new ExoPlayer.builder(context).build();
player.setMediaItem(inputMediaItem);
player.setVideoEffects(effects);
exoPlayer.prepare();

También puedes obtener una vista previa de los efectos de audio con ExoPlayer. Cuando compiles tu instancia de ExoPlayer, pasa un RenderersFactory personalizado que configure los renderizadores de audio del reproductor para que envíen audio a una AudioSink que use tu secuencia AudioProcessor. En el siguiente ejemplo, anulamos el método buildAudioSink() de un DefaultRenderersFactory.

Kotlin

val player = ExoPlayer.Builder(context, object : DefaultRenderersFactory(context) {
    override fun buildAudioSink(
        context: Context,
        enableFloatOutput: Boolean,
        enableAudioTrackPlaybackParams: Boolean,
        enableOffload: Boolean
    ): AudioSink? {
        return DefaultAudioSink.Builder(context)
            .setEnableFloatOutput(enableFloatOutput)
            .setEnableAudioTrackPlaybackParams(enableAudioTrackPlaybackParams)
            .setOffloadMode(if (enableOffload) {
                     DefaultAudioSink.OFFLOAD_MODE_ENABLED_GAPLESS_REQUIRED
                } else {
                    DefaultAudioSink.OFFLOAD_MODE_DISABLED
                })
            .setAudioProcessors(arrayOf(channelMixingProcessor))
            .build()
        }
    }).build()

Java

ExoPlayer player = new ExoPlayer.Builder(context, new DefaultRenderersFactory(context) {
        @Nullable
        @Override
        protected AudioSink buildAudioSink(
            Context context,
            boolean enableFloatOutput,
            boolean enableAudioTrackPlaybackParams,
            boolean enableOffload
        ) {
            return new DefaultAudioSink.Builder(context)
                .setEnableFloatOutput(enableFloatOutput)
                .setEnableAudioTrackPlaybackParams(enableAudioTrackPlaybackParams)
                .setOffloadMode(
                    enableOffload
                        ? DefaultAudioSink.OFFLOAD_MODE_ENABLED_GAPLESS_REQUIRED
                        : DefaultAudioSink.OFFLOAD_MODE_DISABLED)
                .setAudioProcessors(new AudioProcessor[]{channelMixingProcessor})
                .build();
        }
    }).build();

Inicia una transformación

Por último, crea un Transformer para aplicar tus ediciones y comienza a exportar el elemento multimedia resultante.

Kotlin

val transformer = Transformer.Builder(context)
    .addListener(listener)
    .build()
transformer.start(editedMediaItem, outputPath)

Java

Transformer transformer = new Transformer.Builder(context)
    .addListener(listener)
    .build();
transformer.start(editedMediaItem, outputPath);

De manera similar, puedes cancelar el proceso de exportación con Transformer.cancel() si es necesario.

Cómo consultar actualizaciones del progreso

Transformer.start se muestra de inmediato y se ejecuta de forma asíncrona. Para consultar el progreso actual de una transformación, llama a Transformer.getProgress(). Este método toma un ProgressHolder y, si el estado de progreso está disponible, es decir, si el método muestra PROGRESS_STATE_AVAILABLE, el ProgressHolder proporcionado se actualizará con el porcentaje de progreso actual.

También puedes adjuntar un objeto de escucha a tu Transformer para recibir notificaciones sobre eventos de finalización o error.