Für das Ranking Ihrer Webseite ist Suchmaschinenoptimierung zuständig. Doch manchmal klappt es nicht so, wie es man sich es vorstellt. Für Startup-Firmen vor allem ist das ein wichtiger Faktor, um überhaupt Fuß zu fassen. Woran kann das liegen?
Wie sieht es mit Ihrem Index aus?
Achten Sie auf jeden Fall auf Ihren Index – dieser kann relevant sein, wenn Ihre Webseite trotz SEO nicht rankt. Ihre Webseite muss zunächst von Google gefunden werden bevor Ihre SEO-Methoden funktionieren sollen. Der Prozess von Finden, Analysieren und im Anschluss dann auffindbar machen ist die sogenannte Google Indexierung. Diese Indexierung muss mit begleitenden Maßnahmen zusammenspielen, um ein gutes Ranking und eine höhere Sichtbarkeit zu gewährleisten.
Doch gibt es bei der Indexierung und in SEO-Hinsicht Probleme zu geben und die Webseite taucht nicht auf. Welche Gründe gibt es dafür? Hier unsere acht Möglichkeiten warum Ihre Webseite nicht durch Google rankt.
1. 404!
Der Klassiker: 404-Fehler! – der meistens vorkommt, wenn einer dieser Bereiche betroffen ist:
- Nach Umzug Ihrer Webseite wurden nicht alle interne Links angepasst.
- Ebenfalls können interne Links, externe Verweise beinhalten, die ebenso über einen Umzug in Kenntnis gesetzt werden müssen. Sollten diese noch auf alte Adresse linken, generieren sie einen toten Link.
- Beim Kopieren eines Links kann es passieren, dass ein Kunde eine URL in der Adresszeile verändert und jetzt eine Seite, die gar nicht existiert, anfordert.
Überprüfen Sie Ihre 404-Fehler in Ihrer Google Search Console. Der Googlebot rankt Ihre Webseite auch bei solchen Status Codes.
2. Blockierung über .htaccess
.htaccess-Dateien werden beispielsweise für das Umschreiben oder Umleiten von URLs benutzt. Hier müssen Sie ganz genau auf die definierten Regeln achten und die Datei immer richtig benennen. Überprüfen Sie immer wieder Ihre .htaccess. So vermeiden Sie, dass keine relevanten Seiten geblockt sind und Besucher auch alle Seiten aufrufen können!
3. Ihr Server verursacht Probleme
Eine Hauptrolle für Ihr SEO-Ranking ist der Server. Er sollte schnell und leistungsfähig sein. Langsame Ladegeschwindigkeiten auf Ihrer Webseite führen zu kurzer Verweildauer und hohen Absprungraten. Ergebnis, Google rankt Ihre Webseite schlecht. Ganz schlimm, wenn Ihr Server komplett ausfällt und Ihre Webseite gar nicht mehr aufrufbar ist. Deshalb halten Sie Ihren Server im Blick!
4. interne Links
Für gutes Ranking sorgen unter anderem interne Links. Sie sorgen für ein gutes Ranking von Ihren Unterseiten zu relevanten Keywords. Auch hier kann der Bot höchstwahrscheinlich keine Ergebnisse erzielen, wenn Sie keine eingehenden Links gesetzt haben, die quasi auf Ihre Webseite verwaist.
Also prüfen Sie Ihre Webseite auf nofollow-Links, auf richtige und passende Verlinkungen und analysieren Sie kontinuierlich Ihre Linktexte und Ihren Linkjuice.
5. zu lange Ladezeiten
Google stellt den Nutzer und dessen optimierte UX immer mehr in den Vordergrund stell ist die Ladezeit Ihrer Webseite sehr relevant. Bei einer langsamen Webseite ist es einfach Fakt, dass sie nicht gut rankt.
Es kann, wie oben beschrieben, am Server liegen, allerdings können auch zu große Bilder (Dateigröße), fragmentierte Skripte, ein zu langer Quellcode oder zu viele CSS-Dateien dafür verantwortlich sein.
6. Duplicate Content
Wenn Sie auf mehreren Seiten den gleichen Inhalt, also Duplicate Content haben, dann passiert bei den Suchmaschinen folgendes: Die Suchmaschine kann sich nicht entscheiden, welche Ihrer Seiten jetzt das beste Ergebnis liefert, was Einfluss auf ein gutes Ranking hat. Und es wird als eine Art Betrug gewertet, da der gleiche Content auf verschiedenen Seiten zu einer schlechten User Experience führt. Denn Suchmaschinen sind darum bemüht, Usern das beste und relevanteste Suchergebnis zu liefern. Duplicate Content entsteht, wenn Ihre Domain in verschiedenen Versionen aufrufbar ist und sogar über mehrere URLs. Sie haben es vielleicht versäumt, bei einem Umzug die gut rankenden alten Seiten mit umzuziehen.
Gestalten Sie Ihren Content einzigartig. Sollte mal ein Duplicate Content tatsächlich sinnvoll sein, setzen Sie einen Canonical Tag oder eine 301-Weiterleitung auf die Hauptdomäne.
7. XML-Sitemap
Eine XML-Sitemap unterstützt den Googlebot beim Crawlen der URLs, die auf Ihrer Seite sind. Mit einer XML-Sitemap können Sie sogar bestimmte URLs priorisieren. Wenn Sie kaum Verlinkungen haben oder zu viele Unterseiten oder zu viele Seiten, die zudem nicht verlinkt sind, dann ist eine XML-Sitemap zu empfehlen. Unterschätzen Sie dessen Bedeutung nicht!
8. Ihre Webseite ist nicht erreichbar
Die robots.txt kann einzelne Dateien, komplette Verzeichnisse oder ganze Domänen so ausschließen, dass diese erst gar nicht gecrawlt werden können. Im schlimmsten Fall, dass Ihre komplette Webseite nicht erreichbar ist, da diese quasi nicht gecrawlt und somit für die Suchmaschinen nicht aufzufinden ist.