Technisches SEO Audit: in 4 Schritten zur optimierten Website

Ein technisches SEO Audit: In 4 Schritten zur optimierten Website

Das technische SEO Audit einer Website kann an unterschiedlichen Lebensabschnitten einer Website durchgeführt werden. Kreation, Migration, Umgestaltung… oder um die Leistung zu optimieren.

Wie identifiziert man die Stellen, die optimiert werden sollten? Welche Schlüsselkriterien sollten betrachtet werden, um zu optimierende Bereiche zu identifizieren? Welche SEO Software sollte zur technischen Überprüfung verwendet werden?

In unserem technischen SEO Tutorial erfahren Sie alles, was Sie wissen müssen, um Ihre Suchmaschinenoptimierung zu verbessern. Dadurch erhöht sich gleichzeitig auch Ihre Conversion Rate!

Software-Auswahl für Sie

OnCrawl

OnCrawl
Technischer SEO-Crawler zum Öffnen der Black Box von Google
Visit Website
Software ansehen

Webmecanik

Webmecanik
Cloud-Marketing-Software Maßgeschneidert für Ihre Bedürfniss
Visit Website
Software ansehen

Genesys PureCloud

Genesys PureCloud
Moderner Kundenservice aus der Cloud!
PureCloud entdecken
Software ansehen

Was ist technisches SEO?

Technisches SEO Audit: Definition

Ein technisches SEO Audit (eng. technical SEO audit) ist die Analyse einer Website mit dem Ziel, diese für Suchmaschinen zu optimieren. Diese Analyse basiert auf mehreren technischen und strukturellen Kriterien. Technisches SEO ist ein Teil der Suchmaschinenoptimierung.

Jede SEO Konzeption erfolgt auf Grundlage der folgenden essentiellen Prüfungsbereichen:

  • Indizierbarkeit,
  • Seitenarchitektur,
  • Web-Performance,
  • Benutzerfreundlichkeit,
  • Mikrodaten,
  • Internationales,
  • Zugänglichkeit.

Ziele eines technischen SEO Audits

Die Durchführung eines technischen SEO Audits hilft:

  • technisch bedingte blockierende Faktoren zu identifizieren. Diese wirken sich auf die Referenzierung bei Google, die 90% aller Internetnutzer repräsentiert, als auch auf andere Suchmaschinen aus,
  • konkrete operationelle Lösungen zu identifizieren, um Ihre Website effizienter zu gestalten.

☝️Die technische SEO Prüfung unterscheidet sich von der semantischen SEO Prüfung. Letztere zielt darauf ab, die Qualität des Inhalts und deren Zusammenhänge zu analysieren.

Das technische SEO Audit hat viele positive Auswirkungen auf Ihre Website:

  • sie gewinnt bei Suchmaschinen an Sichtbarkeit,
  • sie zieht mehr Besucher an,
  • sie erhöht die Qualität der Benutzerfreundlichkeit,
  • und sie erhöht im idealfall die Konversionsrate.

Technisches SEO Audit und Indexierung von Seiten

Zur Erinnerung: Die Seiten einer Website müssen unbedingt im Google-Index gelistet werden, um im Internet zu erscheinen.

Nur 10% aller Webinhalte werden von Google indiziert.

Indizierung ist der Prozess, dem eine Suchmaschine folgt, um den Inhalt sichtbar zu machen.

Von der Indizierung bis zur Erfassung des Datenverkehrs, der zur Konversion führen kann, folgt eine URL folgenden Schritten:

  1. URL-Erstellung: Seite mit Inhalt.
  2. URL-Crawling durch Googlebot.
  3. Gegebenenfalls wird der URL im Google-Index hinzugefügt. Während der Phase der Indizierung wird der Seite eine versteckte "Punktzahl" zugewiesen.
  4. Positionierung oder keine Positionierung der Seite bei bestimmten Anfragen, abhängig von der Qualitätsbewertung.
  5. Generierung von Besuchern (oder Traffic) auf der positionierten Seite.
  6. Konversion von Internet-Nutzern.

google-indexierung-funnel

Voraussetzungen für ein technisches SEO Audit

  • Zu Beginn sollte man die Problematik, die dem SEO Audit zugrunde liegt, erkennen. Wieso führt man das Audit durch?
    • Aufgrund eines Verlustes von Traffic nach einem Update oder einer Inbetriebnahme.
    • Nach einer Aktualisierung des Algorithmus (z.B. Speed Update).
    • Im Rahmen einer Migration der Website (Umleitungsplan, usw.)?
       
  • Definieren Sie den Umfang, den das Audit auf der Website abdecken soll. Die Technik sollte immer im Dienste der beiden anderen Säulen des SEO stehen: Inhalt und Popularität. Es geht darum, die Art jeder Aktion zu bestimmen.
    • Die zu analysierenden Kriterien des technischen SEO befinden sich hauptsächlich onpage, greifen also auf der Website ein.
    • Die offpage Einstellungen werden dagegen eher während eines Linkaufbau Audits verändert.
    • Netz und Struktur vermischen die technischen und semantischen Aspekte.
       
  • Verwenden Sie eine spezifische SEO Audit Software, wie:
    • einen Crawler,
    • eine Software für Protokollanalyse/Log-Analyse,
    • Google Search Console,
    • ein Analytics Konto.
       
  • Nutzen Sie das Wissen eines Fachmanns, z.B. eines SEO-Beraters oder einer internen Ressource. Diese Person ist in der Lage, alle Informationen zu interpretieren und zu nutzen. Sie kann einen nach Prioritäten geordneten Aktionsplan vorschlagen und Ihnen den besten ROI liefern.

☝️ Ein technisches SEO Audit ist in allen Fällen unerlässlich. Eine Bestandsaufnahme zum besseren Verständnis des spezifischen Kontextes ist notwendig, um zu bestimmen, wie Sie vorgehen können. Außerdem hilft es Ihnen, die verschiedenen Aspekte zu priorisieren.

Wie funktioniert ein SEO Audit: Schritt für Schritt

Hier ist ein Beispielprozess, der je nach Ihrer eigenen Problematik und entsprechend den Ergebnissen Ihrer Analysen angepasst werden kann.

Schritt 1: Mit Google Search Console starten

Nutzen Sie Google Search Console (GSC, ehemals Google Webmaster-Tools), um mit der Analyse der Website zu beginnen. Starten Sie erst danach das Crawling. Dieser Schritt kann im Vorfeld durchgeführt werden, um die nachfolgenden Schritte des Audits vorzubereiten.

Was kann Google Search Console erkennen?

GSC ist das kostenlose Website-Kontroll-Tool von Google. Es ermöglicht das Erhalten technischer Informationen über:

  • aufgetretene Explorationsprobleme,
  • Inkonsistenzen zwischen der Sitemap-Datei und der untersuchten Website,
  • festgestellte technische Mängel (reaktive oder nicht reaktive Website, Reaktionszeit usw.).

Beispiele für Google Search Console Kontrollpunkte:

  • Fehler bei der Indexierung: erkennt Fehler in Ihrer Sitemap. Die Sitemap kann URLs enthalten, die Sie nicht im Google-Index sehen möchten.
  • Eine schlechte Implementierung von hreflang. Wenn dies fehlschlägt, versteht Google nicht, dass derselbe Inhalt in mehreren Sprachen verfügbar ist.
  • Die Verwaltung von Sitemaps: die sitemap.xml ist die Datei, die Roboter lesen, indem sie standardmäßig auf www.ndd.xx/sitemap.xml gehen. Die HTML-Sitemap hingegen dient dazu, zu tiefe URLs anzuzeigen oder neuere Seiten zur Indizierung vorzuschlagen.
  • Crawl-Fehler: Auf die URL, die in der Search Console eingereichten Sitemap angefragt wurde, kann nicht zugegriffen werden. Google gibt jedoch nicht an, dass die Seite verwaist ist.
  • Die Wahl einer einzigen Version der Website. Es sollte die bevorzugte angezeigte Version gewählt werden (www oder nicht www), um doppelte Inhalte zu vermeiden.
  • Ein reaktionsschnelles und funktionelles Design. Die Benutzerfreundlichkeit muss an den Gebrauch der Desktop- und mobilen Nutzer angepasst werden. Es sollte beachtet werden, dass mobile Surfer heute über 50% des Webverkehrs ausmachen.

google-search-console_indexierung

© Google Search Console

Abdeckungsfehler bei der Indexierung in der Google Search Console

Verlauf der Indexierung und Verifizierung mit der Google Search Console

Als Referencer sollten Sie überprüfen, ob die veröffentlichten Inhalte:

  • indexiert sind,
  • bezüglich der gewünschten Stichworte richtig referenziert sind.

Ist dies nicht der Fall, dann sollten Sie erkunden, ob das Problem von technischer oder semantischer Natur ist.

Fehlerliste-Google-Search-Console

© Google Search Console

Fehlerliste in der Google Search Console

  1. Geben Sie die URL in die Search Console ein. So kann überprüft werden, ob eine URL im Google Index vorhanden ist. Sie können auch den Befehl site:myurl in der Google-Suchleiste verwenden.
  2. Prüfen Sie dann anhand der Search Console, ob die Seiten durchsuchbar und indexierbar sind. Betrachten Sie dazu die Abdeckung der Website durch Google: Wurde die Website von Google gecrawlt?
  3. Ermitteln Sie nun, ob Google bei der Untersuchung auf Fehler gestoßen ist, indem Sie die Fehlercodes überprüfen:
    1. Umleitungsschleifen,
    2. 301 Weiterleitungen oder unterbrochene Weiterleitungen,
    3. Server-Fehler (5XX),
    4. URLs, die als nicht indiziert deklariert sind, obwohl sie in die Sitemap integriert wurden,
    5. 404 Fehler,
    6. URLs, deren Zugriff durch die Datei robots.txt blockiert wird.

Schritt 2: Durchführung einer Crawl Analyse

Sie können den Crawler starten und sicherstellen, dass Sie Ziele für Ihre Analyse festlegen. Nutzen Sie dafür die in der Search Console gefundenen Indikatoren.

Was kann ein Crawler erkennen?

Ein Crawler simuliert den Pfad, den der Google-Roboter nehmen würde, um die Website zu scannen. Man erhält eine Kartographie der Website, wie sie von einer Suchmaschine wahrgenommen wird.

Das Starten eines Crawls überprüft, unter anderem, ob:

  • Inhalte indiziert sind,
  • die Seiten richtig strukturiert sind,
  • das interne Netz kohärent ist,
  • keine Fehler in der Sitemap auftauchen, indem dem Crawler eine URL Liste zur Verfügung gestellt wird.

Beispiele für onpage Kontrollpunkte des Crawlers:

  • Doppelter Inhalt (duplicate content). Hilft Seiten zu finden, die zu 90% identisch sind und für die folgende Aktionen durchgefḧrt werden sollten:
    • eine Kanonisierung 
    • andere bestimmte Aktionen (z.B. Löschung, Weiterleitung, usw.)
  • Kanonische Fehler.
  • Umleitungssequenzen und Umleitungsschleifen mit über 4 aufeinanderfolgenden Umleitungen.
  • 404er. entsprechen nicht auffindbaren Inhalten oder einem falschen Link.
  • Paginierung. Ihre Relevanz muss begründet werden.
  • Überwachung der Installation des Google Analytics-Tags und des Google Tag Managers (GTM). Dies soll sicherstellen, dass das Overlay an den gewünschten Stellen auf der Website angebracht wird.
  • Das Schema der Mikrodaten. Mikrodaten machen die Seiten für bestimmte Dateiformate geeignet, die in den SERPs angezeigt werden und Klickraten fördern.
  • Tracking des JavaScript-Renderings. Option, die aktiviert werden sollte, wenn die Website auf einer vollständigen JavaScript-Basis aufgebaut ist. Sie erleichtert die Interpretation des Codes durch den Crawler.
  • Robots.txt Tracking. Diese Datei enthält die Regeln, die Roboter auf einer Website befolgen müssen, um einen Pfad zu markieren. Damit werden bestimmte Zugriffe eingeschränkt.

Überprüfung der Seitenarchitektur der Website mit dem Crawler

Konfigurieren Sie den Crawler, indem Sie verschiedene Arten von Regeln eingeben, je nachdem, was Sie analysieren möchten:

  • Aktivierung des Javascript Renderings,
  • Verfolgung der Anzahl von Nofollow Links,
  • Einhaltung des noindex,
  • Verfolgung kanonischer URLs,
  • Verfolgung der bereitgestellten sitemap.xml Datei,
  • Sammlung der gefundenen Mikrodaten.

Sie müssen nicht unbedingt von der Homepage aus starten. Je nach Anwendung, definieren Sie zuerst entsprechend Ihren Bedürfnissen, welche Kartographie Sie erhalten möchten:

  • eine Kartographie der gesamten Website
  • eine Kartographie eines Teils der Website

1. Beginnen Sie mit einem Blick auf die Seitenarchitektur:

  1. Macht die Seitenarchitektur Sinn?
  2. Gibt es Netzdefekte zwischen den Seiten?
  3. Sind einige Seiten zu tief (mehr als 4 Klicks)?
  4. Können die wesentlichen Inhalte durch interne Navigation leichter zugänglich gemacht werden?
  5. Gibt es Seiten ohne canonical Tags oder solche, die nicht auf sich selbst referenziert (self canonical) sind? Wenn ja, beobachten Sie, worauf sie verweisen.
  6. Identifizieren Sie sich durch Querverweise mit den Sitemap-Daten:
    • aktive Seiten: Generierung von mindestens einem Besucher,
    • inaktive Seiten: gecrawlt, aber keine Besuche generiert,
    • verwaiste aktive Seiten: die mit keiner Seite mehr verlinkt sind, aber weiterhin SEO-Besuche generieren?

2. Identifizieren Sie nun im Netz:

  1. Seiten mit wenig oder keinem Verkehr und vergleichen Sie die Crawler-Daten mit Analytics oder der Search Console,
  2. Doppelte Seiten, und ob sie eine kanonische Seite aufweisen,
  3. Text-Anker innerhalb einer Kategorie oder die zu einer Kategorie führen, und deren Sinn.

3. Im Anschluss können Sie an der Struktur der Website arbeiten, indem Sie eine gut definierte Struktur wählen:

  1. in einem Silo
  2. in Form eines semantischen Kokons, usw.

4. Untersuchen Sie zum Schluss die Web-Performance nach Seitentyp. Dies hilft Probleme einer jeden Kategorie zu erkennen und Verbesserungen zu ermöglichen.

Schritt 3: Eine Protokollanalyse (Log Analyse) durchführen

Was kann ein Programm zur Protokollanalyse erkennen?

Die Rolle des Log-Analyzers besteht darin, die tatsächliche Aktivität des Roboters von Google auf Ihrer Website darzustellen. Der Log-Analyzer:

  • extrahiert Daten über die tatsächlichen Besuche von Googlebot und den Weg der Besucher auf der Website,
  • macht diese Daten für den Server auf der eingesetzten Plattform nutzbar.

Insbesondere bietet es Informationen über:

  • die von Googlebot angezeigten (oder gecrawlten) Seiten der Website,
  • die Seiten der Website, die nicht von Googlebot gecrawlt wurden,
  • die Häufigkeit des Crawlens und die Auswirkungen, die dies auf die Besuche hat. Es erlaubt, die von Google angeforderte Auslastung abzuschätzen, um die gesamte Website zu scannen.

☝️ Diese Analyse ist besonders interessant für Websites mit einem hohen Seitenvolumen, wie z.B. E-Commerce-Websites. Sie ermöglicht:

  • zu prüfen, ob neuer Content von Google gefunden und gecrawlt wurde,
  • die Häufigkeit der durch den Crawl ausgelösten Aktualisierungen zu messen,
  • sicherzustellen, dass das Crawl-Budget nicht unnötig verwendet wird,
  • zu ermitteln, welche priorisierten Maßnahmen zur Optimierung auf der Website getroffen werden sollen

Die Log-Analyse stützt sich unter anderem auf:

  • SEO Tools, die der Log-Analyse dienen, wie z.B. Screaming Frog,
  • eine komplette technische SEO-Plattform, die einen Crawler und Funktionen zur Log-Analyse kombiniert,
  • Linux Befehle,
  • dynamische Excel-Pivot-Tabellen.

Beispiele für Kontrollpunkte mit dem Log-Analyzer

  • Die Crawl-Rate, das heißt der Anteil der Website, der von Googlebot besucht wurde,
  • Das Verhältnis Crawl/Besuche, d.h. das Verhältnis der Crawl-Rate zur Anzahl der generierten Besuche,
  • Die Crawl-Frequenz, d. h. der Zeitraum zwischen zwei Crawls auf der von Googlebot besuchten Website.

Überprüfung im Zusammenhang mit der Log-Analyse

1. Segmentieren Sie die Website, um die SEO-Ziele nach Seitengruppen zu priorisieren. Die Idee hier ist es:

  1. eine Übersicht über die wichtigsten Kategorien der Website zu erhalten,
  2. eine Ansicht nach Seitentypen zu erhalten. Z.B. eine Ansicht aller Seiten die als SEO-Conversion-Seiten bestimmt wurden).

2. Überprüfen Sie interne Links auf Optimierung. Verwenden Sie semantisch verlinkten Anker-Text, mit einem ununterbrochenen Netz zur Mutterseite des Themas.

3. Richten Sie ein Log-Monitoring ein.

4. Identifizieren Sie Probleme mit verwaisten Seiten, die einen Fehler im internen Netz aufweisen. Eine verwaiste Seite ist eine Seite, die mit keiner anderen Seite verlinkt ist. In der Regel kommt es dazu, weil die URLs, die auf sie verweisen sollten, nicht mehr existieren.

5. Kombinieren Sie Crawl-Analyse und Log-Analyse mit einer spezifischen Lösung. Die technische SEO-Platform OnCrawl ist ein komplettes Tool für die Verwaltung des Gesundheitszustands einer Website. Es ermöglicht die Queranalyse mehrerer Datenquellen (Logs bzw. Protokolle, Google Analytics, Google Search Console, Majestic, AT Internet usw.).

Durch Querverweise auf Crawl-Daten und Log-Dateien können Sie:

  • dem Pfad der Indizierungsroboter auf Ihrer Website folgen,
  • herausfinden, ob Ihre strategisch wichtigsten Seiten besucht und indexiert werden,
  • verstehen, wie Ihre SEO-Leistung Ihr Crawl-Budget beeinflusst.

Schritt 4: Untersuchung der Web-Performance

Sie können sich dann auf die Web-Performance konzentrieren, was einem Test der Website-Geschwindigkeit entspricht.

Was kann die Analyse der Web-Performance aufzeigen?

Die Leistungsanalyse ermöglicht es zu überprüfen, ob die Website die von Google empfohlenen technischen Kriterien erfüllt, nämlich :

  • die Zugänglichkeit der Website,
  • die Geschwindigkeit der Website,
  • die Fähigkeit gecrawlt zu werden.

Protokoll zur Überprüfung der Web-Performance

Hier sind die wichtigsten Punkte, die bezüglich der Web-performance überprüft werden sollten.

1. Mobile first indexing: Die Website muss in der mobilen Version vollständig nutzbar sein. Dazu sollte sie als "mobile first" deklariert werden. Eine Navigation, dich nicht mobile friendly ist, kann der Website schaden.

Ob die Website mobile first aktiviert hat, können Sie z.B. anhand einer SEO-Prüfplattform erkennen. Auch Google Search Console verfügt über eine solche Funktion. Dadurch erfahren Sie, ob die Website-Besuche von einem Googlebot-Desktop oder einem Googlebot-Handy kommen.

2. Zugänglichkeit: Ist die Website für Blinde und Sehbehinderte zugänglich? Prüfen Sie zum Beispiel, ob Beschreibungen in den Bild-Tags (alt) vorhanden sind.

3. Geschwindigkeit der Website:

  1. Werden die Inhalte auf der Website schnell angezeigt? Die Ladezeit ist ein wichtiger Bestandteil der Benutzerfreundlichkeit. Eine Website gilt als leistungsfähig, wenn sie Inhalte in weniger als 2 Sekunden lädt,
  2. Welche Faktoren verlangsamen das Laden von Seiten? TTFB (time to first byte), Content-Bereich, Cache, CDN-Nutzung, zu überprüfen des Hostings, usw.

4. Besucher:

  1. Zeigt die Website den Inhalt ohne Unterscheidung zwischen Robotern und Besuchern an?
  2. Überprüfen Sie, ob der gleiche Inhalt wie in der Standardversion des Browsers angezeigt wird. Fügen Sie dazu folgenden Cache-Befehl ein: cache:HomepageAdresse.com. Konsultieren Sie dann die von Google gecachte Seite.

5. Sicherheit: Ist die Website im HTTPS Format? (SSL)

6. International: Ist die Integration des Hreflangs vollständig? (für internationale Websites).

7. Mikrodaten: Verfügt die Website über die wichtigen Mikrodaten? Mikrodaten sind wichtig, um für bestimmte Anzeigenformate auf dem SERP in Frage zu kommen (FAQ, Karussell, etc.). Sie können das Google-Tool für die Identifizierung von Mikrodaten verwenden.

Die Meinung eines Experten - von Cédric Cherchi
"Zu Beginn des Jahres 2018 kündigte Google das Speed Update an. Dies war eine Reaktion auf die Einschränkungen, die mit der Dominanz der mobilen Nutzung verbunden sind. Seitdem ist die Ladeleistung zu einem Kriterium für das Mobile-Ranking geworden. Die Indizierung mit Mobile-first war dabei bereits im Einsatz. Bis März 2021 werden 100% der Websites ausschließlich in ihrer mobilen Version von Google analysiert. Technische SEO-Audits müssen sich mehr denn je auf Ladeleistung und Seitendarstellung auf mobilen Geräten konzentrieren."

Belassen Sie es nicht beim technischen Audit!

Das technische SEO Audit zeigt alle möglichen SEO-Optimierungen auf. Es hilft die Navigation sowohl für Benutzer als auch für Roboter einfach und flüssig zu gestalten.

Es ist eine solide Grundlage für eine leistungsstarke, schnelle, klar navigierte und multimediale Website. Damit ist sie in der Lage, Inhalte effektiv zu hosten und hervorzuheben.

Über die technischen Aspekte hinaus können Sie sich nun auf die anderen Bereiche des SEO-Audits konzentrieren. Kreieren Sie einzigartige und ansprechende Inhalte für den Leser. Nutzen Sie außerdem Linkaufbau bzw. Linkbuilding um die Bekanntheit Ihrer Inhalte zu steigern.

Und, haben Sie bereits ein technisches SEO-Audit in Ihrem Unternehmen durchgeführt? Fallen Ihnen noch andere interessante Kontrollpunkte ein? Geben Sie uns jetzt Ihr Feedback und teilen Sie Ihre Erfahrungen mit uns!

Software-Auswahl für Sie

SimplyBook.me

SimplyBook.me
Online-Buchungssystem
Visit Website
Software ansehen

monday.com

monday.com
Das Projektmanagement-Tool für Teamwork
Webseite ansehen
Software ansehen

BIC Platform

BIC Platform
Die Platform für Ihre Digitale Transformation
Besuchen Sie unsere Web
Software ansehen
Diesen Artikel kommentieren

Neuen Kommentar hinzufügen