Novità sul prodotto
Miglioramento delle prestazioni di Android: introduzione di AutoFDO per il kernel
Lettura di 4 minuti
Siamo il team della toolchain LLVM di Android. Una delle nostre principali priorità è migliorare le prestazioni di Android attraverso tecniche di ottimizzazione nell'ecosistema LLVM. Siamo costantemente alla ricerca di modi per rendere Android più veloce, fluido ed efficiente.Sebbene gran parte del nostro lavoro di ottimizzazione avvenga nello spazio utente, il kernel rimane il cuore del sistema. Oggi siamo felici di condividere come stiamo introducendo l'ottimizzazione automatica basata sul feedback (AutoFDO) nel kernel Android per offrire agli utenti miglioramenti significativi delle prestazioni.
Che cos'è AutoFDO?
Durante una build software standard, il compilatore prende migliaia di piccole decisioni, ad esempio se incorporare una funzione e quale ramo di una condizione verrà probabilmente eseguito, in base a suggerimenti di codice statici.Sebbene queste euristiche siano utili, non sempre prevedono con precisione l'esecuzione del codice durante l'utilizzo dello smartphone nel mondo reale.
AutoFDO cambia questa situazione utilizzando pattern di esecuzione reali per guidare il compilatore. Questi pattern rappresentano i percorsi di esecuzione delle istruzioni più comuni che il codice segue durante l'utilizzo effettivo, acquisiti registrando la cronologia delle diramazioni della CPU. Sebbene questi dati possano essere raccolti dai dispositivi del parco risorse, per il kernel vengono sintetizzati in un ambiente di lab utilizzando carichi di lavoro rappresentativi, ad esempio l'esecuzione delle 100 app più popolari. Utilizziamo un profiler di campionamento per acquisire questi dati, identificando le parti del codice "calde" (utilizzate di frequente) e quelle "fredde". Quando ricompiliamo il kernel con questi profili, il compilatore può prendere decisioni di ottimizzazione molto più intelligenti, personalizzate in base ai carichi di lavoro Android effettivi.
Per comprendere l'impatto di questa ottimizzazione, considera questi fatti chiave:
- Su Android, il kernel rappresenta circa il 40% del tempo CPU.
- Stiamo già utilizzando AutoFDO per ottimizzare gli eseguibili e le librerie nativi nello spazio utente, ottenendo un miglioramento di circa il 4% dell'avvio a freddo delle app e una riduzione dell'1% del tempo di avvio.
Vantaggi in termini di prestazioni nel mondo reale
Abbiamo notato miglioramenti impressionanti in tutte le metriche chiave di Android sfruttando i profili di ambienti di laboratorio controllati. Questi profili sono stati raccolti utilizzando la scansione e l'avvio delle app e misurati sui dispositivi Pixel con i kernel 6.1, 6.6 e 6.12.
I miglioramenti più evidenti sono elencati di seguito. I dettagli sui profili AutoFDO per queste versioni del kernel sono disponibili nei rispettivi repository del kernel Android per i kernel android16-6.12 e android15-6.6.
Non si tratta solo di numeri teorici. Si traducono in un'interfaccia più reattiva, un cambio di app più rapido, una durata della batteria prolungata e un dispositivo complessivamente più reattivo per l'utente finale.
Come funziona: la pipeline
La nostra strategia di implementazione prevede una pipeline sofisticata per garantire che i profili rimangano pertinenti e che il rendimento rimanga stabile.
Passaggio 1: raccolta dei profili
Sebbene ci affidiamo alla nostra flotta di test interni per profilare i binari dello spazio utente, siamo passati a un ambiente di laboratorio controllato per l'immagine generica del kernel (GKI). Il disaccoppiamento della profilazione dal ciclo di rilascio del dispositivo consente aggiornamenti flessibili e immediati indipendentemente dalle versioni del kernel di cui è stato eseguito il deployment. È fondamentale sottolineare che i test confermano che questi dati di laboratorio offrono miglioramenti delle prestazioni paragonabili a quelli delle flotte reali.
- Strumenti e ambiente:eseguiamo il flashing dei dispositivi di test con l'immagine del kernel più recente e utilizziamo simpleperf per acquisire i flussi di esecuzione delle istruzioni. Questo processo si basa sulle funzionalità hardware per registrare la cronologia delle ramificazioni, utilizzando in particolare ARM Embedded Trace Extension (ETE) e ARM Trace Buffer Extension (TRBE) sui dispositivi Pixel.
- Carichi di lavoro: costruiamo un carico di lavoro rappresentativo utilizzando le 100 app più popolari della Android App Compatibility Test Suite (C-Suite). Per acquisire i dati più precisi, ci concentriamo su:
- Avvio di app: ottimizzazione per i ritardi più visibili per gli utenti
- Scansione delle app basata sull'AI: simulazione di interazioni utente contigue ed evolutive
- Monitoraggio a livello di sistema:acquisizione non solo delle attività delle app in primo piano, ma anche dei carichi di lavoro critici in background e delle comunicazioni tra processi
- Convalida:questo workload sintetizzato mostra un'analogia dell'85% con i pattern di esecuzione raccolti dalla nostra flotta interna.
- Dati mirati:ripetendo questi test a sufficienza, acquisiamo pattern di esecuzione ad alta fedeltà che rappresentano con precisione l'interazione utente reale con le applicazioni più popolari. Inoltre, questo framework estensibile ci consente di integrare facilmente benchmark e workload aggiuntivi per ampliare la nostra copertura.
Passaggio 2: elaborazione del profilo
Post-elaboriamo i dati di traccia non elaborati per assicurarci che siano puliti, efficaci e pronti per il compilatore.
- Aggregazione:consolidiamo i dati di più esecuzioni di test e dispositivi in un'unica visualizzazione del sistema.
- Conversione: convertiamo le tracce non elaborate nel formato del profilo AutoFDO, filtrando i simboli indesiderati in base alle esigenze.
- Riduzione dei profili:riduciamo i profili per rimuovere i dati relativi alle funzioni "fredde", consentendo loro di utilizzare l'ottimizzazione standard. In questo modo si evitano regressioni nel codice utilizzato raramente e aumenti non necessari delle dimensioni del binario.
Passaggio 3: test del profilo
Prima dell'implementazione, i profili vengono sottoposti a una rigorosa verifica per garantire prestazioni costanti senza rischi per la stabilità.
- Analisi di profili e binari: confrontiamo rigorosamente i contenuti del nuovo profilo (incluse le funzioni più utilizzate, i conteggi dei campioni e le dimensioni del profilo) con le versioni precedenti. Utilizziamo il profilo anche per creare una nuova immagine del kernel, analizzando i file binari per garantire che le modifiche alla sezione di testo siano coerenti con le aspettative.
- Verifica del rendimento:eseguiamo benchmark mirati sulla nuova immagine del kernel. Ciò conferma che mantiene i miglioramenti del rendimento stabiliti dalle baseline precedenti.
Aggiornamenti continui
Il codice "deriva" naturalmente nel tempo, quindi un profilo statico alla fine perderebbe la sua efficacia. Per mantenere le prestazioni ottimali, eseguiamo la pipeline in modo continuo per fornire aggiornamenti regolari:
- Aggiornamento regolare:aggiorniamo i profili nei rami LTS del kernel Android prima di ogni release della GKI, assicurandoci che ogni build includa i dati del profilo più recenti.
- Espansione futura: al momento stiamo distribuendo questi aggiornamenti ai rami
android16-6.12eandroid15-6.6ed estenderemo il supporto alle versioni GKI più recenti, come la prossimaandroid17-6.18.
Garantire la stabilità
Una domanda frequente sull'ottimizzazione guidata dal profilo è se introduce rischi per la stabilità. Poiché AutoFDO influenza principalmente l'euristica del compilatore, come l'inlining delle funzioni e il layout del codice, anziché alterare la logica del codice sorgente, preserva l'integrità funzionale del kernel. Questa tecnologia è già stata dimostrata su larga scala, fungendo da ottimizzazione standard per le librerie della piattaforma Android, ChromeOS e l'infrastruttura server di Google per anni.
Per garantire ulteriormente un comportamento coerente, applichiamo una strategia "conservativa per impostazione predefinita". Le funzioni non acquisite nei nostri profili ad alta fedeltà vengono ottimizzate utilizzando metodi di compilazione standard. In questo modo, le parti "fredde" o eseguite raramente del kernel si comportano esattamente come in una build standard, evitando regressioni delle prestazioni o comportamenti imprevisti in casi limite.
In futuro
Al momento stiamo implementando AutoFDO nei rami android16-6.12 e android15-6.6. Oltre a questo lancio iniziale, vediamo diverse strade promettenti per migliorare ulteriormente la tecnologia:
- Copertura più ampia: non vediamo l'ora di eseguire il deployment dei profili AutoFDO nelle versioni kernel GKI più recenti e in ulteriori target di build oltre all'attuale supporto di
aarch64. - Ottimizzazione dei moduli GKI:al momento, la nostra ottimizzazione è incentrata sul file binario del kernel principale (
vmlinux). L'espansione di AutoFDO ai moduli GKI potrebbe apportare vantaggi in termini di prestazioni a una parte più ampia del sottosistema del kernel. - Supporto dei moduli del fornitore:ci interessa anche supportare AutoFDO per i moduli del fornitore creati utilizzando il Driver Development Kit (DDK). Grazie al supporto già disponibile nel nostro sistema di compilazione (Kleaf) e negli strumenti di profilazione (simpleperf), i fornitori possono applicare queste stesse tecniche di ottimizzazione ai propri driver hardware specifici.
- Copertura più ampia dei profili:è possibile raccogliere profili da una gamma più ampia di percorsi utente critici (CUJ) per ottimizzarli.
Portando AutoFDO nel kernel Android, ci assicuriamo che la base stessa del sistema operativo sia ottimizzata per il modo in cui utilizzi il tuo dispositivo ogni giorno.
Continua a leggere
-
Novità sul prodotto
Android Studio supporta Gemma 4: il nostro modello locale più potente per la programmazione agentica
Il flusso di lavoro e le esigenze di ogni sviluppatore in materia di AI sono unici ed è importante poter scegliere in che modo l'AI può aiutarti nello sviluppo. A gennaio abbiamo introdotto la possibilità di scegliere qualsiasi modello di AI locale o remoto per potenziare la funzionalità di AI in Android Studio
Matthew Warner • Lettura di 2 minuti
-
Novità sul prodotto
Android Studio Panda 3 è ora stabile e pronto per l'uso in produzione. Questa release ti offre ancora più controllo e personalizzazione sui tuoi flussi di lavoro basati sull'AI, rendendo più facile che mai creare app per Android di alta qualità.
Matt Dyor • Lettura di 3 minuti
-
Novità sul prodotto
In Google ci impegniamo a portare i modelli di AI più potenti direttamente sui dispositivi Android che hai in tasca. Oggi siamo felici di annunciare il rilascio del nostro modello open all'avanguardia più recente: Gemma 4.
Caren Chang, David Chou • Lettura di 3 minuti
Segui gli aggiornamenti
Ricevi ogni settimana gli ultimi approfondimenti sullo sviluppo per Android direttamente nella tua casella di posta.