Nel 2026, un audit dei Core Web Vitals non riguarda più l’inseguimento di un singolo punteggio, ma la costruzione di un flusso di lavoro ripetibile e basato su evidenze: verificare cosa vivono davvero gli utenti, isolare quali template generano il problema e rilasciare modifiche che spostano nella direzione giusta il 75° percentile. Le tre metriche che continuano a guidare le priorità operative sono LCP per il caricamento, INP per la reattività e CLS per la stabilità visiva; e i risultati più rapidi arrivano spesso correggendo le stesse poche cause alla radice sui tipi di pagina con più traffico.
Parti dai dati sul campo, perché riflettono dispositivi reali, reti reali e comportamento reale. In pratica significa usare fonti derivate dal Chrome UX Report (come il report Core Web Vitals in Search Console) per capire come rendono gli URL su larga scala e dove si collocano i gruppi “Buono / Da migliorare / Scarso” su mobile e desktop. Quando qualcuno chiede “è davvero un problema?”, i dati sul campo sono la risposta più pulita perché descrivono ciò che i visitatori hanno effettivamente percepito.
Definisci obiettivi fin dall’inizio, così l’audit ha una logica di superamento/fallimento. Per la maggior parte dei team, la base utile resta: LCP pari o inferiore a 2,5 secondi, INP pari o inferiore a 200 ms e CLS pari o inferiore a 0,1 al 75° percentile. L’audit diventa molto più eseguibile quando tratti queste soglie come criteri di accettazione per i template chiave, non come numeri astratti dell’intero dominio.
Usa gli strumenti di laboratorio per spiegare il “perché”, non per decidere il “se”. Lighthouse, DevTools Performance e i test sintetici sono ottimi per trovare risorse che bloccano il rendering, attività lunghe sul main thread, responsabili dei layout shift e colli di bottiglia dell’hydration. Il modello che funziona meglio è: i dati reali individuano quali gruppi di pagine falliscono e su quali dispositivi; il lavoro in laboratorio riproduce i casi rappresentativi e punta alle cause che puoi correggere.
Raggruppa gli URL per template e per intento, non solo per directory. Per i siti editoriali significa spesso: home, articolo, elenco categoria/tag, risultati di ricerca e formati interattivi speciali (quiz, longform, liveblog). Per l’e-commerce di solito: home, categoria/listing, pagina prodotto, ricerca interna, carrello e passaggi del checkout.
Poi ordina questi gruppi per valore di business e quota di traffico, perché lo stesso millisecondo risparmiato durante un’interazione di checkout vale più di un miglioramento estetico su una landing con poco traffico. Un modo pratico è associare a ogni template una metrica principale: viewability e profondità di lettura per l’editoria, aggiunta al carrello per le pagine prodotto, tasso di completamento per il checkout. L’output dell’audit dovrebbe mostrare chiaramente “cosa correggere prima” come una lista breve di template che falliscono le soglie e che incidono sui risultati.
Infine, assegna a ogni gruppo un “golden URL” per i test ripetuti. Deve essere stabile (senza continui A/B test), rappresentativo (lunghezza tipica, moduli tipici) e misurabile (traffico sufficiente per generare dati sul campo). Questo mantiene l’analisi focalizzata e impedisce di correggere casi limite mentre i template principali restano lenti.
LCP si vince o si perde quasi sempre su poche risorse: immagine hero, blocco titolo principale, galleria prodotto in alto o un carosello prominente. Nel 2026, il lavoro più efficace su LCP segue ancora la stessa logica: rendere l’elemento LCP più leggero, più anticipato e più facile da renderizzare. Significa ottimizzare immagini in modo aggressivo, ridurre CSS e JavaScript che bloccano il primo rendering e tagliare ritardi server che spostano in avanti HTML iniziale e asset critici.
CLS è spesso un problema di design e governance più che di sola ingegneria. Sui siti editoriali, i colpevoli tipici restano slot pubblicitari, banner di consenso, embed che arrivano tardi e cambi di font che alterano le metriche del testo. Nell’e-commerce, spesso incidono widget di prezzo/promo caricati dopo, righe “prodotti consigliati” che compaiono sopra la piega e badge dinamici che spostano titolo o CTA. Un audit CLS deve indicare quali elementi si muovono e correggere la regola che ha permesso dimensioni imprevedibili.
Rendi le raccomandazioni specifiche per componente. “Migliorare LCP” non è eseguibile; “precaricare l’immagine hero, servirla in formati moderni, mantenere un budget JS per il primo schermo ed evitare di renderizzare un carosello offscreen prima della paint dell’hero” lo è. Allo stesso modo, “ridurre CLS” deve diventare regole come: riservare spazio per pubblicità ed embed, applicare width/height o aspect-ratio ai media e rinviare UI non critica senza spingere il contenuto.
Per LCP, verifica quale elemento il browser considera LCP e se viene ritardato dal tempo di risposta del server, da CSS, dall’esecuzione JS o dalla consegna dell’immagine. Se l’elemento LCP è un’immagine, controlla compressione, dimensione corretta per i breakpoint comuni e priorità di caricamento rispetto agli altri asset. Se l’elemento LCP è testo, controlla la strategia di caricamento dei font e quanta parte del CSS è necessaria prima che possa essere renderizzato.
Per CLS, fai un semplice “tour dei layout shift”: ricarica la pagina più volte con un profilo mobile di fascia media, scorri lentamente e osserva i moduli che spingono il contenuto verso il basso o lateralmente. Poi conferma negli strumenti quale nodo è responsabile e perché si muove (iniezione tardiva, dimensioni mancanti, cambi di layout causati da JS o sostituzioni di font). È un metodo poco glamour, ma intercetta rapidamente gran parte dei problemi reali.
Nell’e-commerce, presta attenzione alle pagine prodotto: gallerie immagini, blocchi prezzo, stime di consegna e barre “aggiungi al carrello” sticky possono creare instabilità se compaiono dopo il contenuto principale. Un approccio affidabile è riservare spazio per ogni modulo dinamico già a livello di design e garantire che il layout sopra la piega resti stabile anche quando personalizzazione, recensioni o inventario rispondono lentamente.

Gli audit INP premiano i team che trattano la reattività come una qualità di prodotto di primo livello. A differenza di approcci più vecchi basati solo sulla prima interazione, INP riflette la latenza delle interazioni lungo tutta la permanenza sulla pagina: un sito può caricarsi bene e comunque risultare “impastato” quando l’utente tocca filtri, apre menu o preme “Aggiungi al carrello”. Nel 2026, spesso è qui che si vede il divario più grande tra “sembra ok in demo” e “è lento sui dispositivi reali”.
I miglioramenti INP più rapidi arrivano di solito riducendo le long task sul main thread e tagliando lavoro che non deve avvenire in modo sincrono durante l’interazione. Script di terze parti pesanti, framework client con hydration costosa, animazioni complesse e widget di chat possono far slittare la gestione dell’input dietro una coda di lavoro. Un audit pratico si concentra sulle interazioni che contano: aprire la navigazione, cambiare tab, applicare filtri, aggiungere al carrello e avanzare nei passaggi di checkout.
Documenta i problemi INP con la stessa struttura degli altri punti dell’audit: l’interazione specifica, il profilo dispositivo su cui fallisce, cosa blocca il main thread e la modifica minima che riduce la latenza peggiore. Spesso non serve un intervento “eroico”: spezzare un handler in unità più piccole, rinviare aggiornamenti di stato non critici, ridurre la dimensione del DOM nelle aree interattive o spostare calcoli fuori dal main thread. L’importante è dimostrarlo nelle tracce di laboratorio e poi confermarlo nei dati reali.
Inizia elencando le “interazioni che fanno business” e misurandole. Per l’editoria possono essere apertura menu, espansione di accordion, switch tra tab dell’articolo, riproduzione video embedded o interazioni con i commenti. Per l’e-commerce di solito: filtri, selezione varianti, aggiunta al carrello, modifiche al carrello, inserimento indirizzo, scelta spedizione e transizioni dei passaggi di pagamento.
Poi usa DevTools per individuare le long task attorno a queste interazioni e classificarne la causa: esecuzione JavaScript, ricalcolo di stile e layout, oppure lavoro di rendering innescato da modifiche al DOM. Questa classificazione conta perché cambia la cura: problemi JS rispondono a code splitting, handler più leggeri e scheduling; problemi di layout rispondono a DOM meno complesso ed evitando layout sincroni forzati; problemi di rendering rispondono a effetti visivi più semplici e meno lavoro per frame.
Infine, aggiungi un monitoraggio leggero degli utenti reali per INP e per le tracce delle interazioni chiave, così le regressioni emergono subito. Tratta INP come un requisito per i template principali: quando una nuova funzionalità aggiunge lavoro significativo sul main thread, deve essere visibile in revisione e testata su dispositivi mobile rappresentativi. È questa disciplina che impedisce ai miglioramenti di evaporare nel tempo.