Technisches SEO-Audit: Fundament für bessere Rankings
Programm
Woche 1-2: Crawling und Indexierung
- Screaming Frog Setup und Konfiguration
- Grundlegende Crawls durchführen, Custom Extractions einrichten, große Websites mit API-Modus crawlen
- Search Console Diagnose
- Coverage-Reports analysieren, Indexierungsprobleme identifizieren, Submit-Strategien für neue Inhalte
- Robots.txt und Meta Robots
- Crawl-Budget optimieren, häufige Konfigurationsfehler vermeiden, Disallow-Regeln testen
Woche 3-4: Performance-Optimierung
- Core Web Vitals Analyse
- LCP, FID und CLS messen und verbessern, Field Data vs. Lab Data verstehen, Real User Monitoring einrichten
- Rendering-Probleme
- JavaScript-SEO diagnostizieren, Client-Side vs. Server-Side Rendering, Dynamic Rendering implementieren
Woche 5-6: Struktur und Markup
- Strukturierte Daten
- Schema.org Vocabularies anwenden, JSON-LD validieren, Rich Results Testing Tool nutzen
- Internationale SEO
- Hreflang-Tags korrekt setzen, URL-Strukturen für mehrsprachige Sites, Country-Targeting in Search Console
Woche 7-8: Fortgeschrittene Techniken
- Log-File-Analyse
- Server-Logs mit Screaming Frog kombinieren, Crawl-Effizienz messen, Bot-Traffic identifizieren
- Audit-Dokumentation
- Executive Summaries erstellen, Priorisierungs-Frameworks anwenden, Follow-up Messungen planen
Details
Die meisten Websites verlieren Rankings nicht wegen schlechter Inhalte, sondern wegen technischer Probleme, die niemand bemerkt. Duplicate Content, langsame Ladezeiten, fehlerhafte Weiterleitungen – diese Dinge schleichen sich ein und bleiben oft monatelang unentdeckt.
In diesem Programm lernen Sie, wie Sie technische SEO-Audits durchführen, die tatsächlich verwertbare Ergebnisse liefern. Nicht nur Listen mit hunderten von Fehlern, sondern priorisierte Handlungsempfehlungen basierend auf echten Auswirkungen.
Was Sie hier lernen werden
Sie arbeiten mit Screaming Frog, Google Search Console und anderen Tools, um Crawling-Probleme zu identifizieren. Wir schauen uns an, wie Suchmaschinen Ihre Website sehen – nicht wie Sie denken, dass sie aussieht, sondern wie sie wirklich gecrawlt wird.
Die Indexierungsanalyse zeigt Ihnen, welche Seiten im Index landen sollten und welche nicht. Sie lernen, robots.txt richtig zu konfigurieren, Canonical Tags sinnvoll einzusetzen und XML-Sitemaps zu optimieren.
Performance-Messung mit Kontext
Core Web Vitals sind wichtig, aber nur wenn Sie verstehen, was die Zahlen bedeuten. Sie lernen, PageSpeed Insights und Lighthouse-Reports zu interpretieren und zu entscheiden, welche Optimierungen sich wirklich lohnen. Ein LCP von 3,2 Sekunden ist nicht automatisch ein Problem – es kommt auf den Kontext an.
Strukturierte Daten und Schema Markup
Rich Snippets können Click-Through-Rates erheblich verbessern, aber nur wenn sie korrekt implementiert sind. Sie lernen, JSON-LD zu validieren, häufige Fehler zu vermeiden und zu testen, ob Google Ihre strukturierten Daten überhaupt versteht.
Das Programm umfasst auch mobile Optimierung, internationale SEO-Setups mit hreflang und Log-File-Analysen für fortgeschrittene Crawling-Diagnosen.
Technische Voraussetzungen
Sie benötigen Zugriff auf Google Search Console und grundlegende HTML-Kenntnisse. Erfahrung mit Chrome DevTools ist hilfreich, aber nicht zwingend erforderlich.