7 hartnäckige SEO-Mythen, die sich 2023 noch halten
- 1. Die ideale Keyword-Dichte ist XY...
- 2. Meta-Keywords müssen angegeben werden
- 3. Versteckte Inhalte werden nicht indexiert
- 4. Penalties für multiple H1-Überschriften
- 5. Social Signals sind ein Rankingfaktor
- 6. Es gibt eine Duplicate Content-Penalty
- 7. Häufiges Crawlen führt zu besseren Rankings
- Fazit
SEO-Mythen gibt es wie Sand am Meer. Teilweise haben sie ihren Ursprung in einer inzwischen längst ausgedienten SEO-Maßnahme. Andere wiederum gehen auf bloße Schlussfolgerungen zurück, die sich in den Köpfen der SEOs festgefressen haben. Auch 2023 halten sich noch eisern SEO-Mythen, die so nicht (mehr) wahr sind.
Hier findest du einige der hartnäckigsten SEO-Mythen, gepaart mit offiziellen Antworten von Google-Mitarbeitern wie John Müller und Matt Cutts.
1. Die ideale Keyword-Dichte ist XY…
Damit die Seite ranken kann, muss sie das Keyword mindestens X mal enthalten. |
Dieser weit verbreitete Glauben war vielleicht bis Ende der 2000er noch aktuell — doch er hält sich hartnäckig bis heute. Suchmaschinen haben ihr Sprachverständnis im letzten Jahrzehnt drastisch verbessert: |
Das Hummingbird-Update bescherte uns 2013 ein semantisches Sprachverständnis. Suchanfragen konnten besser verstanden werden und Google ist seither in der Lage, die Suchintention hinter einer Suchanfrage zu verstehen. Auch Voice-Search ist intuitiver geworden. |
2015 wurde dann mit RankBrain eine künstliche Intelligenz in den Algorithmus eingeführt. RankBrain lernt kontinuierlich mehr über Suchintentionen und nutzt Nutzersignale wie Return to SERPs oder die Absprungrate, um die Relevanz des Suchergebnisses zu bewerten. |
2019 gesellte sich BERT zum Hummingbird und dem Brain. Dank BERT ist Google in der Lage, Suchanfragen differenzierter zu verstehen und die Bedeutung von einzelnen Wörtern im Kontext der Suchanfrage zu identifizieren. Google versteht nun, dass bei der Suchanfrage “Kann ich für jemanden ein Auto anmelden” andere Informationen gesucht werden, als das Prozedere einer Auto-Anmeldung. |
Eine bloße Keyword-Optimierung der Seite reicht schon längst nicht mehr aus, damit eine Seite wirklich als relevant gilt. Es ist längst nicht mehr nötig, dass Keyword X einen gewissen Prozentsatz in einem Text vorkommt.
Schon allein deswegen nicht, weil Google auch Synonyme erkennt und den Kontext des Inhalts ermittelt. So können auch Seiten für ein Keyword ranken, die nicht auf dieses Keyword optimiert sind — aber dennoch das Thema hochrelevant behandeln.
Erstelle Inhalte, die für den User nützlich sind
Statt dich auf eine Keyword-Dichte zu fokussieren, sollte der/die User:in im Mittelpunkt stehen. Frage dich:
- Was ist die Suchintention?
- Was ist der Auslöser für die Suche?
- Welche Probleme oder Herausforderungen sollen gelöst werden?
- Welche Fragen stellt sich der/die User:in?
- Was braucht er/sie, um diese Herausforderungen möglichst leicht zu bewältigen?
- Welches Content-Format eignet sich am besten?
2. Meta-Keywords müssen angegeben werden
Google nutzt Meta-Keywords für das Ranking. |
Google ignoriert Meta-Keywords. |
Meta-Keywords sind ein Teil der Meta-Daten, über die jede URL verfügt. Dieser Datensatz besteht aus
- Meta-Title
- Meta-Description
- Meta-Keywords
Wichtig: Meta-Title & -Description
Meta-Title und Meta-Description sind sehr wichtige Bestandteile jeder URL. Zusammen mit der URL ergeben sie das sogenannte Snippet, also das Suchergebnis in den Suchmaschinen. Dein Snippet ist dein Aushängeschild und muss Menschen davon überzeugen, von den Suchergebnissen auf deine Seite zu kommen. Der Meta-Title ist zudem ein Rankingfaktor.
Damit dein Suchergebnis möglichst überzeugend ist, solltest du Meta-Title und -Description optimieren.
Meta-Keywords werden ignoriert
…und das schon mindestens seit 2009! Das Sprachverständnis der Suchmaschinen ist schon lange gut genug, um das Thema und den Kontext des Inhalts zu ermitteln. Im Video sagt Matt Cutts ganz klar: „Wir benutzen den Keywords-Meta-Tag nicht für das Ranking … es wurde einfach zu viel Spam damit betrieben. Wir benutzen diese Information nicht.“
3. Versteckte Inhalte werden nicht indexiert
Google kann Inhalte, die ich verstecke (zum Beispiel hinter Tabs oder Akkordeons) nicht sehen und damit auch nicht indexieren. |
In den meisten Fällen kann Google solche Inhalte sehen. Es kommt darauf an, wie die versteckten Inhalte technisch umgesetzt sind: |
- Werden die Inhalte durch CSS geladen und ausgeblendet, können Googles Crawler die Inhalte auslesen und indexieren.
- Werden die Inhalte erst nach einer Interaktion geladen (z.B. Klick, Tap oder Swipe), können Googles Crawler die Inhalte nicht auslesen (sie wurden ja nicht geladen) und damit auch nicht indexieren. Google klickt beim Crawl einer Seite schließlich nicht auf jedes Element um zu testen, ob dahinter noch ungeladene Inhalte versteckt sein könnten.
Das bestätigt auch John Müller im Google Webmaster Central Hangout vom 14. Juni 2019
4. Penalties für multiple H1-Überschriften
Wenn ich mehrere Überschriften eines Typs benutze, also zum Beispiel mehrere H1- oder H2-Überschriften, dann riskiere ich eine Google Penalty. |
Wir empfehlen eine semantisch sinnvoll strukturierte Seite. Dazu zählt: Pro Dokument gibt es eine H1-Überschrift, denn sie ist ihr Titel. H2-Überschriften sind ganz normale Zwischenüberschriften. |
ABER: Das sind nur Empfehlungen. Google arbeitet mit dem, was es im Web findet. Wie John Müller im Video erklärt, ist das Web voll von nicht korrekt verwendeten Überschriften. Eine hochrelevante Antwort auf eine Suchanfrage wird dem User nicht vorenthalten, nur weil es mehrere H1-Überschriften gibt. Und auch eine Google Penalty wirst du dir damit nicht einhandeln.
Saubere Überschriften für den User
Tatsächlich solltest du dir (wie bei allem anderen auch) eher Gedanken um deine User:innen machen, als um die Suchmaschine. Eine sinnvolle Seitenstruktur mit sauber gesetzten Überschriften wird es ihnen einfacher machen, deine Inhalte zu erfassen und zu verstehen.
Deswegen geben auch SEO-Tools multiple H1-Überschriften, fehlende H2-Überschriften oder eine fehlerhafte Verschachtelung als Fehler aus.
5. Social Signals sind ein Rankingfaktor
Social Signals sind ein Rankingfaktor. |
Social Signals sind kein direkter Rankingfaktor bei Google. Das bestätigte Matt Cutts bereits 2014 in einem Video von Google Search Central. |
Im Video sagt er ganz deutlich:
„Geh nicht davon aus, dass Google Zugriff auf jedes Signal von Facebook oder Twitter hat. Seiten können blockiert sein, es gibt nofollow-Links, oder ähnliches.“
Es gibt allerdings Korrelationen zwischen häufig geteilten Inhalten und guten Rankings:
Wie nofollow-Links auch, sind Social Signals alles andere als unnütz. Schließlich bringen auch sie wichtigen Traffic auf die eigene Seite. Und: Je öfter dein Inhalt über soziale Medien geteilt wird, desto mehr Menschen kommen auf deine Seite, interagieren mit ihr und sorgen für positive Nutzersignale.
Durch die Aufmerksamkeit, die häufig geteilte Inhalte bekommen, erhalten sie oft mehr Backlinks — die wiederum ein Rankingfaktor sind und noch mehr Traffic auf die Seite bringen können.
Dass ein Inhalt in den sozialen Medien häufig geteilt werden, liegt aber daran, dass der Content besonders nützlich und/oder unterhaltsam ist.
6. Es gibt eine Duplicate Content-Penalty
Wenn ich doppelte Inhalte habe, riskiere ich eine Abstrafung für meine Website. |
Es gibt keine Duplicate Content-Penalty. Wenn Google identische Inhalte findet, sucht es entweder eine Variante aus und rankt diese in den Suchergebnissen. Oder es kommt zu Keyword-Kannibalisierung, ausgelöst durch Duplicate Content. |
Du siehst, um eine Google Penalty brauchst du dir keine Gedanken machen, um deine Rankings aber schon. Daher ist es immer sinnvoll, internen Duplicate Content zu identifizieren und zu beheben.
Die Ursachen von Duplicate Content
Interner Duplicate Content kann viele Ursachen haben, z.B.:
- Eine Seite ist mit und ohne www. erreichbar
- Online-Shops mit Produkt-Varianten: Hat jede Variante des Produkts (Größe, Farbe, etc) eine eigene URL, aber die Produktbeschreibungen sind bis auf die Varianz identisch, kann Duplicate Content entstehen.
- Sehr ähnliche Landing Pages (z.B. für Local SEO). Unterscheiden diese sich lediglich durch den Namen der Stadt und sind sonst identisch, kann das zu Problemen führen.
- Indexierte URL-Parameter, die z.B. durch Session-IDs, Filter oder die interne Suche entstehen. Die Inhalte auf diesen URLs sind dann identisch.
- Ein Artikel ist gleich mehreren Kategorien eines Blogs oder Online-Magazins zugeordnet und diese Kategorien befinden sich im Pfad der URL.
Verhindere Duplicate Content mit dem Canonical Tag
Du kannst doppelte Inhalte in den Suchmaschinen verhindern, indem du mit dem Canonical Tag arbeitest. Mit dem Der Canonical Tag enthält die URL des „Originals“ und zeigt den Suchmaschinen so, welche Seite nun wirklich in den Suchergebnissen erscheinen soll.
Urheberrechtsverletzungen melden
Findest du eine exakte Kopie deines Artikels oder dein Bild auf einer fremden Website, ohne dass du jemals deine Erlaubnis dazu gegeben hast, musst du das nicht hinnehmen. Weise den/die Webmaster:in darauf hin und bitte um sofortige Entfernung innerhalb eines festgelegten Zeitraumes. Kommt er/sie dieser Aufforderung nicht nach, kannst du bei Google das Entfernen von Inhalten aus Google beantragen. Damit wird dein Artikel zwar nicht von der fremden Seite entfernt, aber zumindest erscheint sie nicht mehr in den Suchergebnissen.
Außerdem handelt es sich dabei um eine klare Urheberrechtsverletzung und das Recht ist auf deiner Seite. Sollte es keine Reaktion geben, kannst du den Anwalt einschalten.
Selbstverständlich solltest auch du keine Inhalte von fremden Websites kopieren und dich so einer Urheberrechtsverletzung strafbar machen.
7. Häufiges Crawlen führt zu besseren Rankings
Wenn Google meine Seite mehr crawlt, werde ich besser ranken. |
Das Crawling führt nicht zu besseren Rankings – Crawling ist die technische Voraussetzung, um zu ranken. |
Damit Google eine Seite indexieren und positionieren kann, muss die Suchmaschine sie erst einmal
- sehen,
- verstehen und
- einordnen.
Das Crawling erlaubt es der Suchmaschine, die Website zu sehen (oder zumindest ihr erlaubte Teile zu sehen). Welche Seiten sie sich anschauen darf und welche nicht, wird über die robots.txt gesteuert. Der Googlebot schaut sich die einzelnen Unterseiten an, damit die Inhalte im nächsten Schritt eingeordnet werden können. Wenn eine Seite nicht gecrawlt werden kann, kann sie also auch nicht ranken.
Was ist das Crawl Budget?
Wie häufig eine Website gecrawlt wird, bestimmt das Crawl Budget. Jeder Website wird ein Crawl Budget zugeordnet. Wie groß es ist, hängt u.a. von der Größe der Website und der Häufigkeit der Änderungen ab.
Ziel ist es, dass möglichst alle Neuerungen und Änderungen der Website schnell in den Suchmaschinenindex (SERPs) aufgenommen werden und im zweiten Schritt gute bzw. bessere Rankings erreichen. Die Crawl Budget-Optimierung ist besonders für große Websites mit vielen Unterseiten relevant, wie beispielsweise Online-Shops.
Für wen ist das Crawl Budget wichtig?
Das Crawl Budget wird schnell für große Websites knapp, auf denen sich täglich viele Änderungen ergeben oder die eine große Anzahl an Unterseiten haben, die eigentlich nicht gecrawlt werden müssten. Besonders häufig betroffen sind Online-Shops mit tausenden Produkten, Produktkategorien, Filtermöglichkeiten, Suchfunktionen, etc.
Wenn du bemerkst, dass neue Seiten oder aktualisierte Inhalte sehr lange brauchen, bis sie in den Suchergebnissen erscheinen, ist ein Blick auf dein Crawl Budget sinnvoll.
Fazit
Lass dich nicht von SEO-Mythen ins Bockshorn jagen! Solange deine Website technisch sauber aufgesetzt ist, einzigartige Inhalte hat und keinen Spam beinhaltet, sollte es von Seiten Google keine Probleme geben. Dann geht es nur noch darum, den/die Nutzer:in zu begeistern und die Suchintentionen zu befriedigen. Ob ein Wort dann in der H1 oder H3 steht, ist nebensächlich.