Wie SEO funktioniert – die Säulen der Optimierung

Wie SEO funktioniert – die Säulen der Optimierung

Suchmaschinen wie Google folgen grob drei Schritten, um Ergebnisse zu liefern: Crawling, Indexierung und Ranking. SEO setzt an allen drei Stellen an. Man unterscheidet oft Technisches SEO, Onpage-SEO und Offpage-SEO – diese Bereiche greifen ineinander und beeinflussen gemeinsam die Rankings. Hier erklären wir wie SEO funktioniert.

1. Technisches SEO: Crawling, Indexierung & Website-Qualität

Crawling & Indexierung: Crawling bezeichnet den Prozess, bei dem Suchmaschinen-Bots (Crawler wie der Googlebot) das Web durchstreifen, um neue oder aktualisierte Inhalte zu entdecken Der Crawler ruft Webseiten ab, folgt Links und sammelt Daten. Gefundene Seiten werden dann indexiert, d.h. in den Suchmaschinen-Index aufgenommen – vereinfacht eine gigantische Datenbank aller bekannten Webinhalte. Nur indexierte Seiten können in den Suchergebnissen erscheinen. Daher ist es für SEO fundamental, Crawl- und Indexierbarkeit sicherzustellen:

  • Robots.txt & Meta-Tags: Mit der Datei robots.txt und Meta-Tags wie <meta name="robots" content="noindex"> kann gesteuert werden, welche Bereiche eine Suchmaschine crawlen oder indexieren darf. Fehlerhafte Einstellungen hier (z.B. ein /-Disallow in robots.txt) können ganze Websites aus dem Index ausschließen – ein häufiger technischer SEO-Fehler.
  • Sitemaps: XML-Sitemaps sind „Inhaltsverzeichnisse“ einer Website für Crawler. Sie helfen Google, alle wichtigen URLs zu finden, besonders bei sehr großen Websites oder komplexer Navigation. Eine aktuelle Sitemap kann die Indexierung beschleunigen, ist aber meist optional, solange die interne Verlinkung gut ist.
  • Crawl-Budget: Google kann nicht unbegrenzt crawlen – für jede Website steht ein gewisses „Crawl-Budget“ zur Verfügung, also eine maximale Anzahl von Seiten, die der Bot in einem Zeitraum abruft. Dieses Budget hängt u.a. von der Popularität der Seite, Aktualität der Inhalte, Ladegeschwindigkeit und Serverkapazität ab. Große Websites müssen darauf achten, ihr Crawl-Budget nicht mit unnötigen oder doppelten Seiten zu verschwenden. Praktiken wie Paginierung, Faceted Navigation und Filter sollten crawlerfreundlich gestaltet sein (oder per robots/Canonical eingeschränkt werden), damit der Bot die wichtigen Seiten erreicht.
  • Mobile-First Indexierung: Google indexiert seit einigen Jahren primär die mobile Version einer Website (Mobile-First-Index). Seit Juli 2024 crawlt Google sogar ausschließlich mit dem Googlebot für Smartphones; Desktop-Crawling wurde eingestellt. Websites müssen also mobil optimiert sein – Inhalte, die nur auf Desktop vorhanden wären, fließen nicht mehr ins Ranking ein. Ein responsives Design oder separate Mobile-Seite (mit korrekten rel=alternate/Canonical-Tags) ist essenziell. Mobile-First bedeutet auch: Performance und Usability auf Smartphones sind zentrale Rankingfaktoren geworden.
  • Duplicate Content & Canonicals: Doppelte Inhalte (z.B. Druckversionen, Session-IDs in URLs oder HTTP/HTTPS-Duplikate) können den Index verwässern. Hier hilft der Canonical-Tag (<link rel="canonical" href="...">), um Google die bevorzugte URL zu zeigen. Saubere URL-Strukturen und konsistente interne Links vermeiden Dupes.

Website-Performance & -Struktur: Technisches SEO umfasst auch alle Qualitätsaspekte der Webseite, die für Suchmaschinen (und Nutzer) relevant sind:

  • Page Speed: Die Ladezeit ist ein Rankingfaktor – insbesondere auf Mobilgeräten seit dem „Speed Update“ 2018. Google belohnt schnelle Seiten, weil Nutzer nicht lange warten wollen. Tools wie PageSpeed Insights oder Lighthouse helfen, Performance-Probleme zu erkennen (große Bilder, blockierende Skripte etc.). Aktuell sind die Core Web Vitals (Largest Contentful Paint, First Input Delay, Cumulative Layout Shift) wichtige Kennzahlen für die Seitenqualität. Eine schnelle, stabile Seite verbessert sowohl Rankings als auch Conversionrates.
  • Mobile-Freundlichkeit: Neben der bereits erwähnten Mobile-Indexierung bewertet Google, ob eine Seite auf Touchscreens gut bedienbar ist. Responsive Design, lesbare Schriftgrößen, keine abgeschnittenen Inhalte oder intrusive Pop-ups sind Best Practices. Google stellt mit dem Mobile-Friendly Test ein Tool bereit, um mobile Usability zu prüfen.
  • Sichere Verbindung: Seit 2014 gilt HTTPS als leichter Rankingfaktor. Eine Website sollte per TLS verschlüsselt sein (https://), nicht nur aus SEO-Gründen, sondern zum Schutz der Nutzerdaten. Google markiert unverschlüsselte Seiten in Chrome als „unsicher“.
  • Strukturierte Daten: Ein technisches Plus sind strukturierte Daten (Schema.org-Markup). Durch JSON-LD-Auszeichnungen im HTML können zusätzliche Informationen maschinenlesbar gemacht werden – etwa Bewertungen, Rezepte, Veranstaltungen oder FAQs. Suchmaschinen nutzen diese Daten für Rich Results (z.B. Sternebewertungen, Knowledge Panel-Einträge). Für SEO können strukturierte Daten die Sichtbarkeit erhöhen, da Ergebnisse mit Rich Snippets auffälliger sind. Wichtig: Die Daten sollten den tatsächlichen Seiteninhalten entsprechen (kein „Faken“). Beispiel für strukturierte Daten (FAQ-Auszeichnung im JSON-LD-Format):

html

KopierenBearbeiten

<script type="application/ld+json"> { "@context": "https://schema.org", "@type": "FAQPage", "mainEntity": [{ "@type": "Question", "name": "Was ist SEO?", "acceptedAnswer": { "@type": "Answer", "text": "SEO steht für Suchmaschinenoptimierung und umfasst alle Maßnahmen, um die Platzierung einer Website in den Suchergebnissen zu verbessern." } }, { "@type": "Question", "name": "Warum ist PageSpeed wichtig?", "acceptedAnswer": { "@type": "Answer", "text": "Eine hohe Ladegeschwindigkeit verbessert die Nutzererfahrung. Google berücksichtigt die PageSpeed als Rankingfaktor, besonders bei mobilen Suchen." } }] } </script>

  • Semantisches HTML & Crawling-Fallen: Suchmaschinen bevorzugen sauberen, semantischen Code. Überschriften sollten als <h1>...<h2>... strukturiert sein, wichtige Inhalte im HTML möglichst weit oben stehen. Versteckte Inhalte (etwa nur via Tabs einblendbar) könnten weniger Gewicht bekommen. Zudem ist Vorsicht bei JavaScript geboten: Google kann zwar Seiten rendern, aber stark JS-basierte Seiten können Crawl-Probleme verursachen. Idealerweise sollte kritischer Content serverseitig lieferbar sein. Für JS-heavy Sites sind Lösungen wie Dynamic Rendering oder Hydration denkbar, um Bots HTML bereitzustellen. Prüfen lässt sich das z.B. mit dem URL-Prüftool der Search Console, das zeigt, wie Google die Seite sieht.

Zusammengefasst zielt technisches SEO darauf ab, Zugänglichkeit, Geschwindigkeit und Struktur einer Website so zu optimieren, dass Suchmaschinen problemlos alle wichtigen Inhalte finden und bewerten können. Ist die technische Basis schwach (z.B. Crawling blockiert, Seite sehr langsam, massenhaft Fehler), helfen die besten Inhalte wenig – sie kommen nicht zur Geltung.

2. Onpage-SEO: Inhalte und Seitenoptimierung

Onpage-SEO umfasst alle Maßnahmen auf der Website selbst, um die Relevanz und Nutzerfreundlichkeit zu erhöhen. Hier stehen Content und Struktur im Vordergrund:

  • Keyword-Recherche & Suchintention: Am Anfang steht die Frage: Wonach suchen meine Zielgruppen und was wollen sie wirklich? Moderne Keyword-Recherche nutzt Tools (z.B. Google Keyword Planner, Ahrefs, Semrush) um relevante Suchbegriffe und -phrasen zu finden. Wichtiger noch: die Search Intent hinter jedem Keyword zu verstehen. Sucht jemand z.B. „Kaffeemaschine kaufen“ (transaktional, Produktvergleich gewünscht) vs. „wie entkalkt man eine Kaffeemaschine“ (informational, Anleitung gewünscht). Content sollte genau diese Bedürfnisse bedienen. Es reicht oft nicht mehr, stumpf ein Keyword X mal auf der Seite zu streuen – Inhaltliche Tiefe und Kontext sind entscheidend. Dennoch bildet ein fundiertes Keyword-Set die Basis jeder SEO-Content-Strategie. Neben Hauptkeywords berücksichtigt man auch Long-Tails (längere, spezifische Phrasen) und semantisch verwandte Begriffe. Google erkennt dank NLP (Natural Language Processing) Zusammenhänge zwischen Themen: Inhalte, die verwandte Konzepte abdecken, wirken umfassender. Beispielsweise sollte ein Artikel über „Cloud Storage“ auch Begriffe wie Backup, Datensicherheit, Speicherkosten etc. behandeln, um ein komplettes Bild zu liefern.
  • Content-Qualität & -Optimierung:Content is King! Hochwertige Inhalte sind das Herzstück des Onpage-SEO. Dazu zählen informative Texte, aussagekräftige Bilder/Grafiken und eingebettete Videos etc. Jede Seite sollte ein klares Hauptthema haben (Fokus-Keyword) und dem Nutzer echten Mehrwert bieten – sei es durch Beantwortung einer Frage, Lösung eines Problems oder Unterhaltung. Praktische Tipps für SEO-gerechte Inhalte:
    • Titel und Meta-Tags: Der Seitentitel (<title>) und die Meta-Description beeinflussen zwar direkt kaum das Ranking, sind aber wichtig für die Klickrate (CTR). Sie sollten das Haupt-Keyword enthalten und Nutzer zum Klicken animieren. Z.B. „10 Tipps zur Suchmaschinenoptimierung – So rankt Ihre Website besser“.
    • Überschriften (H1–H6): Die H1 sollte die Seite treffend benennen (oft ähnlich dem Title). Unterüberschriften gliedern den Text und signalisieren Suchmaschinen die Themenhierarchie. Keywords in H2/H3 können sinnvoll sein, aber organische Formulierungen sind wichtiger als erzwungene Keyword-Phrasen.
    • Keyword-Platzierung: Das Hauptkeyword sollte idealerweise in den ersten Absätzen vorkommen und natürlich im Text verteilt sein. Keyword-Stuffing (übertriebene Häufigkeit) ist strikt zu vermeiden – Google erkennt diese Manipulation und kann Seiten dafür abstrafen. Synonyme und LSI-Konzepte (Latent Semantic Indexing) einzubinden wirkt dagegen positiv, da sie den Kontext stärken.
    • Lesbarkeit: Gut strukturierter, leicht verständlicher Text gewinnt. Kurze Absätze, Aufzählungen, fett/kursiv Hervorhebungen für wichtige Stellen und aussagekräftige Abschnitte verbessern die User Experience. Nutzer „scannen“ Inhalte oft zuerst – daher sollten die wichtigsten Infos sofort ersichtlich sein. Auch aus SEO-Sicht ist die User Experience relevant: Google misst z.B. Verweildauer und Klickverhalten, was Rückschlüsse auf die Zufriedenheit zulässt.
    • Multimediale Inhalte: Bilder (mit Alt-Attributen zur Beschreibung) und Videos bereichern Content und können in vertikalen Suchen ranken (Bildsuche, YouTube). Alt-Texte sind für Barrierefreiheit und Bild-SEO wichtig, da Google Bilder nicht „sehen“ kann, aber anhand des Alt-Textes und Umfelds deren Inhalt erfasst.
    • Interne Verlinkung: Onpage heißt auch interne Links klug zu setzen. Interne Verweise helfen dem Crawler, alle Unterseiten zu erreichen, und verteilen Linkjuice auf wichtige Seiten. Zudem leiten sie Nutzer zu verwandten Inhalten. Eine flache Seitenarchitektur (wenige Klicks von der Startseite zu jeder Seite) ist ideal. Ankertexte sollten beschreibend sein (nicht nur „hier klicken“). Eine durchdachte interne Verlinkung kann Rankings spürbar verbessern, gerade für neue Inhalte.
    • Semantisches HTML: Wie bereits unter Technischem SEO erwähnt, sollte der HTML-Code sauber strukturiert sein. Verwendung von <article>, <section>, <nav> etc. kann Suchmaschinen helfen, Inhalte besser einzuordnen. Beispielsweise umschließt <article> einen selbstständigen Inhalt – etwa einen Blogbeitrag – was Google’s Parser Hinweise gibt. Auch strukturierte Daten (siehe oben) sind Teil des semantischen Markups.
  • Content-Strategie: Über einzelne Seiten hinaus ist eine konsistente Strategie wichtig. Dazu gehören Themencluster (Content Hubs): z.B. eine Pillar-Seite „SEO-Leitfaden“ mit ausführlichem Überblick und Unterseiten zu speziellen Themen wie Keyword-Recherche, Linkaufbau, technischem SEO etc., alle untereinander verlinkt. Solche Strukturen stärken die Autorität für ein Themengebiet. Aktualität ist ebenfalls ein Faktor: Regelmäßige Content-Pflege (Updates, neue Artikel) hält eine Seite „frisch“ – insbesondere bei Themen, wo sich vieles ändert (z.B. jährliche SEO-Trends). Man sollte zudem auf Duplicate Content im eigenen Auftritt achten: gleiche Inhalte auf mehreren URLs vermeiden oder mit Canonical bündeln. Falls ähnliche Inhalte unvermeidbar sind (z.B. Produktvarianten in Shops), entsprechende technische Maßnahmen ergreifen.
  • User Experience (UX): Onpage-Optimierung zielt letztlich darauf, dass Besucher zufrieden sind. Aspekte wie mobilfreundliches Design, schnelle Ladezeiten, klare Navigation und fehlende Barrieren sind Ranking-relevant. Google wertet indirekt auch Nutzer-Signale (Klickrate, Bounce Rate, Verweildauer). Eine hohe Absprungrate kann ein Indiz sein, dass der Inhalt nicht zum Suchbegriff passt oder die Seite unübersichtlich ist. Daher fließen UX und SEO ineinander: Ein gutes Ranking bringt nichts, wenn Nutzer sofort wieder abspringen – und umgekehrt belohnt Google Seiten, die Suchende glücklich machen.

3. Offpage-SEO: Autorität und Vertrauenssignale

Offpage-SEO umfasst alle externen Faktoren, die die Reputation einer Website aus Sicht der Suchmaschine beeinflussen. Google interpretiert Links von anderen Seiten quasi als „Empfehlungen“. Wichtige Offpage-Aspekte sind:

  • Backlinks & Linkaufbau: Links von anderen Websites gelten als „Stimmen“. Aber es zählt Qualität vor Quantität. Ein einziger Backlink von einer hochseriösen, themenrelevanten Seite (z.B. ein Branchenmagazin) kann mehr wert sein als 100 Links von unbekannten oder irrelevanten Seiten. Beim Linkbuilding geht es darum, solche hochwertigen Verlinkungen zu verdienen oder aufzubauen – durch exzellente Inhalte, Outreach, PR oder Content-Marketing-Kampagnen. White-Hat-Methoden sind z.B. Gastbeiträge auf renommierten Blogs, Zusammenarbeit mit Partnern, Teilnahme an Branchenverzeichnissen oder das Kreieren von Inhalten, die von selbst Links anziehen (Linkbait). Von Black-Hat-Techniken wie Linkkauf, Linktausch-Netzwerken oder automatisiertem Linkspam sollte man die Finger lassen – Googles Penguin-Algorithmus erkennt unnatürliche Linkmuster mittlerweile sehr gut und bestraft diese. Im Idealfall entstehen Links organisch, wenn andere deine Inhalte so gut finden, dass sie freiwillig darauf verweisen. Eine gesunde Backlink-Strategie analysiert zunächst das vorhandene Linkprofil (z.B. via Ahrefs oder Search Console) und das der Mitbewerber, um Lücken und Chancen zu identifizieren. Dann setzt man auf Maßnahmen, die zu echten Empfehlungen führen. Dabei immer im Hinterkopf: Links sollten v.a. Traffic bringen, nicht nur Linkjuice. Ein Link, über den tatsächlich Besucher kommen (z.B. in einem Fachartikel), ist in aller Regel auch SEO-wirksam und vor allem nachhaltig.
  • Domain-Autorität: Oft spricht man von der Autorität oder Trust einer Domain. Google hat hier keinen öffentlichen Wert mehr (der alte PageRank-Wert wird nicht mehr sichtbar aktualisiert), aber SEO-Tools wie Moz (Domain Authority), Ahrefs (Domain Rating) oder Sistrix (Sichtbarkeitsindex) versuchen, die allgemeine Stärke einer Domain zu bemessen. Diese Metriken basieren größtenteils auf Qualität und Anzahl der Backlinks. Eine Website mit vielen seriösen Links wird als autoritätshoch angesehen und erhält tendenziell bessere Rankings (auch bei Inhalten, die noch nicht viele eigene Links haben). Brand-Signale spielen ebenfalls eine Rolle: Etablierte Marken genießen Vertrauensvorschuss. Erwähnungen einer Marke (auch ohne Link) oder Social Signals sind schwieriger zu quantifizieren, könnten aber indirekt Einfluss haben. Für SEO im professionellen Umfeld ist es wichtig, die Domain als Ganzes aufzubauen – durch kontinuierlichen Content-Aufbau, Pressearbeit, Social Media Präsenz und natürlich Linkaufbau. Eine starke Domain wirkt wie ein Fundament, auf dem neue Inhalte schneller ranken.
  • E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness): Dieses Konzept stammt aus den Google Quality Rater Guidelines (Qualitätsrichtlinien für externe Tester) und steht für Erfahrung, Fachwissen, Autorität und Vertrauenswürdigkeit. E-E-A-T ist kein konkreter Algorithmus, aber es beschreibt Eigenschaften von Websites, die Google als qualitativ hochwertig einstuft – insbesondere bei YMYL-Themen („Your Money or Your Life“ wie Gesundheit, Finanzen, Recht, also Themen mit potenziell großem Einfluss auf das Wohl der Nutzer). Experience: Verfügt der Autor über eigene Erfahrung zum Thema (z.B. ein Reiseblogger, der über Länder schreibt, die er bereist hat)? Expertise: Hat der Autor oder die Seite sachkundige Kompetenz (z.B. medizinische Artikel von Ärzten)? Authoritativeness: Ist die Seite als Autorität auf ihrem Gebiet bekannt (z.B. zitiert von anderen, offizieller Charakter)? Trustworthiness: Ist die Seite vertrauenswürdig (Impressum, transparente Informationen, Datenschutz, keine reißerischen oder falschen Inhalte)? – All das fließt indirekt ins Ranking ein. Google selbst bestätigt nur wenige E-E-A-T-Faktoren als direkt wirksam (PageRank/Links zählen dazu), aber vieles spiegelt sich in anderen Signalen wider. Praktisch bedeutet das: Websites sollten Vertrauen aufbauen, etwa durch Autorenprofile mit Expertise, Qualitätsinhalte mit Belegen/Quellen, aktuelle Informationen und positive Nutzerbewertungen. Offpage zeigt sich E-E-A-T z.B. daran, dass renommierte Seiten auf einen verlinken oder dass in sozialen Netzwerken ein gutes Feedback besteht. Aus SEO-Sicht kann man E-E-A-T fördern, indem man die Credibility seiner Seite steigert – z.B. Experten als Autoren einbindet, ein About-Us mit Referenzen anbietet, SSL verwendet, Nutzerfeedback integriert und natürlich Top-Content liefert. 2022 wurde „Experience“ neu hinzugefügt, um zu betonen, dass Erfahrung aus erster Hand (z.B. ein Produkttest aus Nutzerperspektive) wertvoll ist. Zusammengefasst: Google möchte Inhalte von erfahrenen, qualifizierten Personen, die von vielen als vertrauenswürdig angesehen werden.
  • Weitere Offpage-Faktoren: Brand-Mentions (Markennennungen) ohne Link könnten einen schwachen Signalwert haben – Google kann Texte kontextuell zuordnen. Social Media-Aktivität (Shares, Likes) korreliert zwar oft mit guten Rankings, aber primär weil guter Content sowohl in Social Media als auch in Suchmaschinen erfolgreich ist. Es gibt keine Belege, dass Social Signals ein direkter Rankingfaktor sind. Trotzdem schaden sie nicht: Starke Inhalte, die viral gehen, ziehen meist auch Backlinks nach sich. Lokale Offpage-SEO umfasst zudem Citations (Firmeneinträge auf Portalen), Google-Bewertungen etc., was für Local SEO entscheidend ist.

Ranking-Algorithmen & Faktoren: Google nutzt Hunderte von Signalen, um die Reihenfolge der Ergebnisse zu bestimmen – bekannt ist die oft zitierte Zahl 200 Rankingfaktoren. Nicht jeder Faktor ist gleichermaßen wichtig, und viele wirken nur in Kombination. Bekannt ist, dass Inhalt und Backlinks nach wie vor Kernfaktoren sind (Google bestätigte 2016, dass hochwertiger Content und Links zu den Top-3-Faktoren gehören). Daneben fließen technische Signale (Seitenstruktur, Ladezeit), Nutzersignale (Klickverhalten), Lokalisierung (Standort des Suchenden) u.v.m. ins Ranking ein. Der genaue Algorithmus ist Googles Geschäftsgeheimnis und verändert sich ständig – Google führt pro Jahr hunderte kleiner Updates durch. SEO versucht also, auf Basis von Erfahrung, Tests und Richtlinien die wichtigsten Faktoren zu adressieren. Der Grundgedanke bleibt: Relevanz + Qualität + Autorität = gutes Ranking. Relevanz stellt man durch passenden, vollständigen Content sicher, Qualität durch saubere Technik und Nutzen für den Besucher, Autorität durch externe Empfehlungen. Die Kunst der SEO ist, all diese Dimensionen zu vereinen.

Ähnliche Beiträge