Technical SEO auf einen Blick: Die 15-Punkte-Checkliste
Vom Crawling über die Indexierung zum Ranking: Um in der unbezahlten Google-Suche sichtbar zu sein, muss der Suchmaschinenriese eure Webseiten-Inhalte problemlos erfassen können. Technische Suchmaschinen-Optimierung hilft euch, genau das sicherzustellen.
Was ist technische Suchmaschinen-Optimierung?
Technische SEO-Maßnahmen sollen es Suchmaschinen ermöglichen, die Inhalte eures Online-Auftrittes leicht und reibungslos zu erfassen.
Dieses sogenannte Crawling ist die Grundvoraussetzung dafür, dass Google eure Webseiten indexiert (= in sein Verzeichnis aufnimmt) und in der unbezahlten Suche als Treffer abbildet.
Je leichter Google technisch "versteht", wie eure Webseiten aufgebaut sind und was sie inhaltlich bieten, desto höher ist die Chance, dass diese Seiten als relevante Suchtreffer weit oben in den unbezahlten Suchergebnissen erscheinen.
Wichtig: Dies gelingt nur kombiniert mit hochwertigen Inhalten, welche die Informationsbedürfnisse eurer suchenden Zielgruppe bestmöglich bedienen.
Die folgende 15-Punkte-Checkliste hilft euch, Technical SEO erfolgreich umzusetzen:
- HTTPS-Verschlüsselung
- Seitenladezeiten
- Mobiloptimierung
- Heading-Tags
- Meta-Tags
- Indexierungsgrad
- URL-Struktur
- robots.txt
- ALT-Texte
- 404-Fehlerseiten
- XML-Sitemap
- Weiterleitungen (Redirects)
- Canonical Links
- Code-Prüfung (HTML, CSS, JavaScript)
- Strukturierte Daten
Vorhang auf:
1. HTTPS-Verschlüsselung
Google erwartet von hochwertigen Online-Auftritten eine HTTPS-Verschlüsselung ("Hypertext Transfer Protocol Secure", zu Deutsch "sicheres Hypertext-Übertragungsprotokoll"). Dieses zertifiziert die Website als echt und macht eingegebene Daten für Außenstehende unsichtbar.
Mein Blog ist HTTPS-verschlüsselt. |
HTTPS gibt es in drei Sicherheitsstufen. Aus SEO-Sicht ist bereits Stufe 1 völlig ausreichend:
- Stufe 1 – Zertifikate mit Domain-Validierung (DV)
- Stufe 2 – Zertifikate mit Organisations-Validierung (OV)
- Stufe 3 – Zertifikate mit Extended Validation (EV)
Anbieter für die benötigten SSL- bzw. TLS-Zertifikate sind unter anderem GlobalSign, GeoTrust, Digicert sowie das kostenlose Let's Encrypt.
2. Seitenladezeiten
Menschen nutzen Webseiten flüchtig (vor allem auf dem Smartphone). Die Seitenladezeit misst, wie lange es braucht, bis eine Webseite geladen und für den User interaktiv nutzbar ist.
Je zeitsparender Google Aufbau und Inhalte einer Webseite erfassen kann, desto besser. Auch aus Sicht der Benutzerfreundlichkeit (Effizienz, Effektivität, zufriedenstellende Nutzung) ist eine schnelle Ladezeit vorteilhaft.
Wie schnell oder langsam eure Webseiten laden, sagt euch das kostenlose Google-Tool PageSpeed Insights auf einer Skala von 0 bis 100 (inkl. Optimierungs-Vorschlägen).
Das PageSpeed-Insights-Ergebnis für meinen Blog |
Faustregel: Einen Wert von 80 solltet ihr mindestens erreichen (sowohl in der Desktop-/Laptop- als auch in der Smartphone-Ansicht).
3. Mobiloptimierung
Menschen gehen immer öfter und immer länger mit ihrem Smartphone online. Dieser Nutzungskontext erfordert eine bestmögliche Benutzerfreundlichkeit auf kleinen Bildschirmen.
Diese sogenannte Mobiloptimierung ist zudem ein Google-Rankingfaktor.
Ergebnisseite des Tools "Test auf Optimierung für Mobilgeräte" |
Ob euer Online-Auftritt in Googles Augen mobiloptimiert ist, sagt euch das kostenlose Tool Test auf Optimierung für Mobilgeräte.
4. Heading-Tags
Heading-Tags sind HTML-Auszeichnungen für Überschriften und signalisieren Suchmaschinen, wie relevant der Inhalt einer Headline innerhalb eines Webseiten-Textes ist. Sie sind sehr bedeutsam für die Platzierung von Keywords.
Beispiel für ein h1-Tag auf meinem Blog |
Heading-Tags sind für den User unsichtbar und beeinflussen nicht zwangsläufig die Schriftgröße der Überschrift. Die Relevanz-Hierarchie von Heading-Tags reicht von h1 (äußerst wichtig) bis h6.
Visualisieren könnt ihr die Heading-Tags eurer Website mit dem Browser-Add-on Web Developer. Das Tool Screaming Frog SEO Spider analysiert euren gesamten Online-Auftritt hinsichtlich der Heading-Tags.
5. Meta-Tags
Suchtreffer einer Suchmaschine bestehen aus drei Komponenten:
- klickbarer Title-Tag (blauer Link)
- Meta-Description (schwarzer Zweizeiler unterhalb des blauen Links)
- evtl. angereicherte Informationen (strukturierte Daten, zum Beispiel Bild, Datum, Bewertungs-Sterne, u. v. m.).
Beispiel für einen Google-Suchtreffer mit Title-Tag, Meta-Description und angereicherten Informationen |
Diese Komponenten könnt ihr losgelöst vom Inhalt einer Seite separat pflegen. Die Komposition eines Suchtreffers beeinflusst das Ranking (Keywords im Title-Tag) und die Klickwahrscheinlichkeit des Suchtreffers.
Achtet auf die Länge des Title-Tags (max. 65 Zeichen, ideal 55 Zeichen) und der Meta-Description (max. 160 Zeichen, ideal 135 Zeichen).
6. Indexierungsgrad
Google arbeitet für jeden Online-Auftritt mit einem sogenannten Crawling-Budget: Dieses bemisst, wie lange und wie intensiv sich der Suchmaschinen-Bot mit eurem Online-Auftritt beschäftigt.
Eine Auffindbarkeit in der Google-Suche setzt voraus, dass die Seiten eures Online-Auftritts indexiert sind, sich also im Verzeichnis der Suchmaschine befinden. Entsprechend sollten die Seiten eures Online-Auftritts so umfänglich wie möglich im Google-Index vertreten sein.
Indexierungsgrad meines Blogs (Google Search Console) |
Wie umfassend euer Online-Auftritt von Google indexiert wurde, sagt euch die kostenlose Google Search Console.
Wichtig: Es ist völlig normal, dass es zu keiner 100%igen Abdeckung kommt. Jedoch solltet ihr prüfen, dass a) eure Seiten mehrheitlich indexiert werden und b) keine wichtigen Seiten im Google-Index fehlen.
7. URL-Struktur
Die URL-Struktur eines Online-Auftritts zeigt, wie logisch-stringent die Web-Adressen eures Online-Auftritts dessen tatsächliche Architektur abbilden (zum Beispiel "Startseite" > "Rubrikseite" > "Detailseite").
Ein Ausschnitt der URL-Struktur der Website www.bitkom.org (Screaming Frog SEO Spider) |
Je stringenter die URL-Architektur eures Online-Auftritts ist, desto leichter fällt es der Suchmaschine (und dem User), diese Architektur zu verstehen und sich zu orientieren. Empfehlenswertes Tool: der bereits genannte Screaming Frog SEO Spider.
8. robots.txt
robots.txt ist eine Textdatei innerhalb eines Online-Auftritts, die von Suchmaschinen ausgelesen wird, bevor diese sich mit den Inhalten der Website beschäftigen.
Die robots.txt-Datei meines Blogs |
Die robots.txt-Datei informiert die Suchmaschine darüber, welche Bereiche des Online-Auftritts die Suchmaschine crawlen/erfassen darf (Allow) und welche nicht (Disallow). Über die robots.txt-Konfiguration könnt ihr das Crawling eures Online-Auftritts optimieren.
Gibt es Inhalte auf euren Seiten, die Google nicht crawlen soll, weil sie nicht in der Google-Suche erscheinen sollen oder müssen, so könnt ihr diese über einen Disallow-Befehl vom Crawling ausschließen (bei meinem Blog sind das zum Beispiel die Ergebnisseiten der internen Suchfunktion, siehe oben). So bleiben mehr Crawling-Ressourcen für wichtige Inhalte.
Wichtig: Wollt ihr (unabhängig vom Crawling) Inhalte garantiert von einer Google-Indexierung ausschließen, ist der Disallow-Befehl in der robots.txt zu schwach. Über Verlinkungen von anderen Webseiten könnten diese Seiten dennoch in der Google-Suche auftauchen. Müsst ihr also zwingend Inhalte für die Google-Suche unsichtbar machen, braucht es stattdessen ein noindex-Tag im Head-Bereich der betroffenen Seite.
9. ALT-Texte
Der Begriff ALT-Text steht für "alternativer Text". Er wird für den User unsichtbar bei Bildern hinterlegt und beschreibt stichpunktartig deren Inhalt.
Grün: Visualisierter ALT-Text auf meinem Blog (Alt Text Tester) |
Das Prinzip kommt aus der barrierefreien Website-Gestaltung: Sehbehinderten Usern ist es so möglich, sich den Inhalt eines Bildes per Screenreader vorlesen zu lassen.
Suchmaschinen nutzen den ALT-Text, um zu "verstehen", was ein Bild zeigt. Visualisieren könnt ihr die ALT-Texte auf euren Seiten mit dem Browser-Add-on Alt Text Tester und dem bereits erwähnten Screaming Frog SEO Spider.
10. 404-Fehlerseiten
Ist eine Seite auf dem Server nicht vorhanden, sendet dieser den Statuscode "404 not found" an den Browser.
Kommt ein Besucher auf solch einer Seite raus, sollte er benutzerfreundlich abgeholt werden: Wo bin ich, was ist passiert und was kann ich als Nächstes tun?
Benutzerfreundliche 404-Seite auf bitkom.org |
Technisch ist zudem wichtig, dass User und Suchmaschinen denselben Statuscode angezeigt bekommen: Sieht der User 404 ("Seite nicht vorhanden"), aber der Suchmaschine wird 200 ("Seite vorhanden") ausgespielt, kommt es zu einem sogenannten Soft-404-Fehler, welcher aus SEO-Sicht riskant ist:
Google crawlt dann Seiten, die keinen relevanten Content bieten, was wiederum das Crawling-Budget unnötig belastet. Auch hier hilft die Google Search Console, etwaige Probleme zu erkennen.
11. XML-Sitemap
Eine XML-Sitemap ist ein (nur für Suchmaschinen sichtbares) Verzeichnis aller Seiten eines Online-Auftrittes.
Eine Sitemap-Ausschnitt von www.zdf.de |
Eine XML-Sitemap hilft einer Suchmaschine, "auf einen Blick" erkennen zu können, aus welchen Seiten ein Online-Auftritt besteht. So kann sichergestellt werden, dass die Suchmaschine keine Seiten "übersieht".
Mittels kostenloser XML-Sitemap-Generatoren (die ihr über die Google-Suche findet) könnt ihr diese erstellen, um sie im Root-Verzeichnis eurer Website zu hinterlegen.
12. Weiterleitungen (Redirects)
Ändert sich die Adresse (URL) einer Webseite oder wird sie gelöscht, stellen Weiterleitungen (Redirects) sicher, dass beim erneuten Aufruf der alten Seite die User auf die neue Web-Adresse geführt werden.
Man unterscheidet permanente Weiterleitungen (301-Redirects) und temporäre Weiterleitungen (302-Redirects). Aus SEO-Sicht sind stets permanente Weiterleitungen zu bevorzugen (auch wenn Google offiziell beide Varianten gleichbehandelt).
Beispiele für permanente 301-Redirects (Screaming Frog SEO Spider) |
Google hat kein Problem mit Redirects – wenn es nicht zu überlangen Weiterleitungs-Ketten oder Weiterleitungs-Schleifen kommt:
Bei überlangen Weiterleitungs-Ketten besitzt ein Redirect mehr als drei Unter-Weiterleitungen, sodass die Ladezeit leidet oder schlimmstenfalls Google beim Crawling nie auf der End-Seite ankommt. Bei Weiterleitungs-Schleifen rotiert der Redirect in einer Endlosschleife, sodass die Seite überhaupt nicht geladen wird. In beiden Fällen wird zudem das Crawling-Budget eures Online-Auftritts unnötig belastet.
Ob es ein Redirect-Problem auf eurer Website gibt, sagen euch unter anderem der schon vorgestellte Screaming SEO Spider Frog sowie die Tools Link Redirect Trace, httpstatus und Redirect Check.
13. Canonical Links
Bieten unterschiedliche Seiten auf demselben Online-Auftritt identischen oder sehr ähnlichen Inhalt, entsteht sogenannter interner (Near) Duplicate Content, zu Deutsch Dubletten-Inhalt.
Dies kann Google verwirren, da es dann nicht weiß, welche Version es in den Suchergebnissen höher ranken soll. Ein Canonical Link schafft Abhilfe: Er signalisiert der Suchmaschine, welche Version das zu bevorzugende "Original" ist.
Ein Canonical-Link-Beispiel auf bitkom.org (oberste Zeile) |
Ob ihr ein Duplicate-Content-Problem habt, sagen euch SEO-Suiten wie Xovi oder Sistrix sowie das Tool Siteliner. Welche Canonical Links auf euren Seiten bereits gesetzt sind, sagt euch wiederum der bereits genannte Screaming Frog SEO Spider.
14. Code-Prüfung (HTML, CSS, JavaScript)
Ein schlank und korrekt implementierter Code stellt zwei Dinge sicher: 1. schnelle Ladezeiten und 2. eine gute Crawlbarkeit (Erfassbarkeit) durch Suchmaschinen.
Vor allem der JavaScript-Einsatz sollte optimiert sein, da JavaScript für Suchmaschinen schwieriger zu erfassen (crawlen) ist als HTML und CSS.
Der W3C-Validator |
Ob euer Code sauber implementiert ist, sagt euch der WC3-Validator. Ob es ein JavaScript-Problem auf euren Seiten gibt, sagt euch die bereits vorgestellte Google Search Console.
15. Strukturierte Daten
Mittels der Auszeichnungssprache schema.org für strukturierte Daten könnt ihr einzelne Bestandteile einer Webseite für Suchmaschinen genauer beschreiben: So können Zahlenwerte als Bewertungspunkte deklariert werden, die dann im Suchtreffer als Bewertungssterne erscheinen.
Dies ermöglicht es Suchmaschinen, zu der entsprechenden Webseite sogenannte Rich Snippets (angereicherte Suchtreffer) auszuspielen:
Beispiel für einen angereicherten Suchtreffer (Rich Snippet) |
Rich Snippets stechen optisch, aber: Strukturierte Daten sind kein Ranking-Faktor. Auch gibt es keine Garantie, dass Google sie ausspielt. Tut es dies, können Rich Snippets jedoch die Klickwahrscheinlichkeit deutlich erhöhen.
Welche strukturierten Daten auf euren Seiten hinterlegt sind und ob es Probleme mit ihnen gibt, sagen euch die bereits genannten Tools Google Search Console und Screaming SEO Frog Spider sowie zusätzlich Googles Test für Rich-Suchergebnisse.
Technical SEO als Grundvoraussetzung für gute Rankings
Das war meine 15-Punkte-Checkliste für technische Suchmaschinen-Optimierung. Wie eingangs erwähnt: Kriegsentscheidend für gute Platzierungen in der unbezahlten Google-Suche sind hochwertige und vertrauenswürdige Inhalte, welche relevant die Suchanfragen eurer Zielgruppen beantworten.
Damit Google aber überhaupt verstehen kann, welche Inhalte es auf eurer Website gibt, muss diese technisch für die Suchmaschine optimiert sein. Wie das geht, hat meine obige Checkliste hoffentlich gut rübergebracht.
Ich wünsche euch viel Erfolg bei eurer SEO-Inspektion. ;-)
Link-Tipps:
- Der optimale JavaScript-Einsatz auf euren Webseiten
- So optimiert ihr die Ladezeiten eurer Webseiten
- Was ihr bei URL-Weiterleitungen beachten müsst
- SEO: Was muss euer CMS technisch können?
- HTML-Tags: So optimiert ihr euren Quellcode für Google
- SEO: So optimiert ihr eure Webseiten für die DACH-Region
- Deshalb ist die robots.txt-Datei wichtig für eure Website
Kommentare