Core-Web-Vitals-Audits im Jahr 2026 drehen sich weniger um die Jagd nach einem einzigen Score und mehr um einen wiederholbaren, faktenbasierten Ablauf: prüfen, was echte Nutzer erleben, herausfinden, welche Templates das Problem verursachen, und Änderungen ausrollen, die das 75. Perzentil messbar verbessern. Die drei Kennzahlen, die für die tägliche Priorisierung weiterhin zählen, sind LCP für das Laden, INP für die Reaktionsfähigkeit und CLS für die visuelle Stabilität. Die schnellsten Erfolge entstehen meist, wenn dieselben wenigen Ursachen auf den wichtigsten Seitentypen sauber behoben werden.
Beginne mit Felddaten, weil sie reale Geräte, Netzwerke und Nutzerverhalten abbilden. Praktisch heißt das: nutze aus dem Chrome UX Report abgeleitete Quellen (z. B. den Core-Web-Vitals-Bericht in der Search Console), um die Leistung von URLs im großen Maßstab zu sehen und zu erkennen, wo Mobile und Desktop in den Bereichen „Gut“, „Verbesserung nötig“ oder „Schlecht“ landen. Wenn Stakeholder fragen „Ist das wirklich ein Problem?“, sind Felddaten die sauberste Antwort, weil sie auf echten Nutzererfahrungen beruhen.
Lege Ziele vorab fest, damit das Audit eine klare Pass/Fail-Logik hat. Für die meisten Teams bleibt der praktische Rahmen: LCP bei oder unter 2,5 Sekunden, INP bei oder unter 200 ms und CLS bei oder unter 0,1 — jeweils im 75. Perzentil. Das Audit wird deutlich umsetzbarer, wenn du diese Schwellen als Abnahmekriterien für deine wichtigsten Templates behandelst und nicht als abstrakte Zahlen für eine ganze Domain.
Nutze Labortools, um das „Warum“ zu erklären, nicht um das „Ob“ zu entscheiden. Lighthouse, DevTools Performance und synthetische Tests sind ideal, um render-blockierende Assets, lange Main-Thread-Tasks, Ursachen für Layout Shifts und Hydration-Engpässe zu finden. Der wirkungsvollste Ablauf ist: Felddaten zeigen, welche Seitengruppen versagen und auf welchen Geräten; die Laboranalyse reproduziert typische Ausfälle und benennt Ursachen, die du konkret beheben kannst.
Gruppiere URLs nach Template und Such-/Nutzerintention, nicht nur nach Verzeichnis. Bei Content-Websites sind das meist: Startseite, Artikel-/Beitragsseite, Kategorie-/Tag-Übersicht, Suchergebnisse und spezielle interaktive Formate (Quiz, Longreads, Liveblogs). Im E-Commerce sind es typischerweise: Startseite, Kategorie-/Listing, Produktdetailseite, interne Suche, Warenkorb und Checkout-Schritte.
Danach priorisiere diese Gruppen nach Business-Wert und Traffic-Anteil, denn dieselbe eingesparte Millisekunde im Checkout ist wertvoller als eine kosmetische Verbesserung auf einer Low-Traffic-Kampagnenseite. Ein praktikabler Ansatz ist, jedem Template eine primäre Zielkennzahl zuzuordnen: Viewability und Scrolltiefe bei Editorial-Seiten, Add-to-Basket bei Produktseiten und Abschlussquote bei Checkout. Dein Audit-Ergebnis sollte klar zeigen, „was zuerst zu fixen ist“ — als kurze Liste der Templates, die Schwellen verfehlen und gleichzeitig Ergebnisse treiben.
Stelle schließlich sicher, dass jede Gruppe eine „Golden URL“ für wiederholbare Tests hat. Diese URL sollte stabil sein (keine häufigen A/B-Änderungen), repräsentativ (typische Textlänge, typische Module) und messbar (genug Traffic für Felddaten). So bleiben Untersuchungen fokussiert und Teams vermeiden es, Sonderfälle zu polieren, während die Haupttemplates weiter langsam bleiben.
LCP wird in der Regel von wenigen Ressourcen entschieden: dem Hero-Bild, dem Haupt-Headline-Block, einer zentralen Produktgalerie oder einem prominenten Karussell. Auch 2026 folgt effektive LCP-Arbeit derselben Logik: das LCP-Element kleiner machen, früher laden und leichter rendern. Das bedeutet: Bilder konsequent optimieren, CSS und JavaScript reduzieren, die den First Render blockieren, und Server-Verzögerungen beseitigen, die HTML und kritische Assets nach hinten schieben.
CLS ist häufig eher ein Design- und Governance-Problem als reine Engineering-Arbeit. Bei Content-Websites bleiben typische Verursacher: Werbeplätze, Consent-Banner, spät geladene Embeds und Font-Swaps, die Textmetriken verändern. Im E-Commerce sind es oft: nachgeladene Preis-/Promo-Widgets, „Empfohlene Produkte“-Reihen, die oberhalb des Folds erscheinen, und dynamische Badges, die Titel oder CTA verschieben. Ein CLS-Audit sollte exakt benennen, welche Elemente sich bewegen, und dann die Regeln beheben, die unvorhersehbare Abmessungen überhaupt zulassen.
Formuliere Empfehlungen komponentenspezifisch. „LCP verbessern“ ist nicht umsetzbar; „Hero-Bild priorisieren und in modernen Formaten ausliefern, ein striktes JS-Budget für den ersten Screen einhalten und ein Offscreen-Karussell nicht vor dem Hero rendern“ ist es. Ebenso sollte „CLS reduzieren“ in klare Regeln übersetzt werden: Platz für Ads und Embeds reservieren, width/height oder aspect-ratio konsequent setzen und nicht-kritische UI so nachladen, dass Inhalte nicht springen.
Für LCP prüfe, welches Element der Browser als LCP einstuft und ob es durch Server-Antwortzeit, CSS, JavaScript-Ausführung oder Bildauslieferung verzögert wird. Ist das LCP-Element ein Bild, kontrolliere Kompression, korrekte Größen für gängige Breakpoints und ob es im Verhältnis zu anderen Assets priorisiert geladen wird. Ist es Text, überprüfe die Font-Loading-Strategie und wie viel CSS benötigt wird, bevor der Text rendern kann.
Für CLS hilft eine einfache „Layout-Shift-Tour“: Seite mehrfach auf einem mittelklassigen Mobilprofil neu laden, langsam scrollen und beobachten, welche Module Inhalte nach unten oder zur Seite schieben. Danach im Tooling bestätigen, welches Node verantwortlich ist und warum es sich bewegt hat (spätes Injecten von Content, fehlende Dimensionen, layout-ändernde JS-Logik oder Font-Fallback-Swaps). Das ist bewusst unspektakulär, deckt aber sehr schnell den Großteil realer CLS-Probleme auf.
Im E-Commerce verdienen Produktseiten besondere Aufmerksamkeit: Galerien, Preisblöcke, Lieferzeit-Schätzer und Sticky-Add-to-Basket-Bars verursachen Instabilität, wenn sie erst nach dem Hauptcontent erscheinen. Ein zuverlässiges Muster ist, für jedes dynamische Modul bereits im Design Platz zu reservieren und sicherzustellen, dass das Above-the-Fold-Layout stabil bleibt, selbst wenn Personalisierung, Reviews oder Bestandsdienste langsam antworten.

INP-Audits belohnen Teams, die Reaktionsfähigkeit als zentrales Qualitätsmerkmal behandeln. Anders als frühere Ansätze, die nur die erste Interaktion betrachteten, spiegelt INP die Latenz von Interaktionen über die gesamte Seite wider. Eine Seite kann also beim Laden schnell wirken und sich dennoch „zäh“ anfühlen, wenn Nutzer Filter antippen, Menüs öffnen oder „In den Warenkorb“ drücken. Genau hier zeigt sich 2026 häufig die größte Lücke zwischen „sieht im Demo gut aus“ und „fühlt sich auf echten Geräten träge an“.
Die schnellsten INP-Verbesserungen entstehen meist, wenn lange Tasks auf dem Main Thread reduziert und Interaktionsarbeit entfernt wird, die nicht synchron passieren muss. Schwere Third-Party-Skripte, große Client-Frameworks mit teurer Hydration, komplexe Animationen und Chat-Widgets können die Verarbeitung von Eingaben hinter eine Warteschlange aus Arbeit schieben. Ein praktisches Audit konzentriert sich auf die Interaktionen, die wirklich zählen: Navigation öffnen, Tabs wechseln, Filter anwenden, in den Warenkorb legen und Checkout-Schritte voranbringen.
Dokumentiere INP-Probleme in derselben Struktur wie andere Audit-Items: die konkrete Interaktion, das Geräteprofil, auf dem sie scheitert, was den Main Thread blockiert, und die kleinste Änderung, die die schlimmste Latenz senkt. Oft ist diese Änderung nicht dramatisch: einen Handler in kleinere Einheiten splitten, nicht-kritische State-Updates später ausführen, DOM-Größe in interaktiven Bereichen reduzieren oder teure Berechnungen vom Main Thread weg verlagern. Entscheidend ist, die Verbesserung in Lab-Traces zu belegen und anschließend in Felddaten wiederzufinden.
Starte mit einer Liste deiner „Money Interactions“ und messe sie. Bei Content-Websites sind das z. B. Menü öffnen, Akkordeons ausklappen, Artikel-Tabs wechseln, eingebettete Videos starten oder Kommentarbereiche bedienen. Im E-Commerce sind es meist Filter-Interaktionen, Variantenwahl, Add-to-Basket, Warenkorb-Änderungen, Adresseingabe, Versandwahl und Übergänge im Zahlungsprozess.
Nutze danach DevTools, um rund um diese Interaktionen lange Tasks zu finden und die Ursache zu klassifizieren: JavaScript-Ausführung, Layout-/Style-Recalculation oder Rendering-Arbeit, die durch DOM-Änderungen ausgelöst wird. Diese Einordnung ist wichtig, weil die Gegenmaßnahmen unterschiedlich sind: JS-lastige Probleme reagieren auf Code-Splitting, schlankere Handler und Scheduling; Layout-Probleme auf weniger DOM-Komplexität und das Vermeiden erzwungener synchroner Layouts; Rendering-Probleme auf vereinfachte Effekte und weniger Arbeit pro Frame.
Ergänze schließlich leichtgewichtiges Real-User-Monitoring für INP und zentrale Interaktions-Traces, damit Regressionen früh auffallen. Behandle INP wie ein Build-Kriterium für Kerntemplates: Wenn ein neues Feature spürbar Main-Thread-Arbeit hinzufügt, sollte das in Reviews sichtbar sein und auf repräsentativen Mobilgeräten getestet werden. Diese Disziplin verhindert, dass Verbesserungen mit der Zeit wieder verloren gehen.