Meta Robots

Die Meta Robots Tags gehören zu den wichtigsten Werkzeugen der Suchmaschinenoptimierung und steuern, wie Suchmaschinen mit Ihren Webseiten umgehen. Diese unsichtbaren HTML-Anweisungen im Head-Bereich entscheiden darüber, ob Ihre Inhalte indexiert werden, ob Links verfolgt werden und wie Ihre Seiten in den Suchergebnissen erscheinen. Ein korrekter Einsatz von Meta Robots kann Ihre SEO-Strategie erheblich verbessern, während Fehler zu erheblichen Sichtbarkeitsverlusten führen können.

Was sind Meta Robots Tags?

Inhaltsverzeichnis

Meta Robots Tags sind HTML-Elemente, die im Head-Bereich einer Webseite platziert werden und Suchmaschinen-Crawlern spezifische Anweisungen geben. Diese Tags kontrollieren das Crawling- und Indexierungsverhalten von Suchmaschinen wie Google, Bing und anderen. Sie sind ein unverzichtbares Werkzeug für Webmaster und SEO-Spezialisten, um die Sichtbarkeit ihrer Inhalte gezielt zu steuern.

Im Gegensatz zu robots.txt-Dateien, die auf Server-Ebene arbeiten, wirken Meta Robots Tags auf einzelne Seiten und bieten dadurch eine granulare Kontrolle. Sie werden direkt im HTML-Code eingebettet und von Suchmaschinen-Crawlern beim Besuch der Seite ausgelesen und befolgt.

Grundlegende Syntax

Meta Robots Tags werden im Head-Bereich einer HTML-Seite eingefügt und folgen einer standardisierten Syntax. Die korrekte Implementierung ist entscheidend für ihre Wirksamkeit.

<meta name="robots" content="index, follow">
<meta name="googlebot" content="noindex, nofollow">
<meta name="robots" content="noindex, nofollow, noarchive">

Die wichtigsten Meta Robots Direktiven

Es gibt verschiedene Direktiven, die einzeln oder in Kombination verwendet werden können. Jede Direktive hat eine spezifische Funktion und beeinflusst das Verhalten von Suchmaschinen auf unterschiedliche Weise.

Index und NoIndex

Die Index-Direktive erlaubt Suchmaschinen, eine Seite in ihren Index aufzunehmen und in den Suchergebnissen anzuzeigen. Dies ist das Standardverhalten, wenn kein Meta Robots Tag vorhanden ist. Die NoIndex-Direktive hingegen verhindert die Aufnahme in den Suchindex und ist besonders nützlich für Seiten mit doppeltem Inhalt, Testseiten oder interne Bereiche.

Index

Funktion: Seite darf indexiert werden

Anwendung: Öffentliche Inhalte, Produktseiten, Blogartikel

Code: content=“index“

NoIndex

Funktion: Seite wird nicht indexiert

Anwendung: Danke-Seiten, Login-Bereiche, Duplicate Content

Code: content=“noindex“

Follow

Funktion: Links werden verfolgt

Anwendung: Normale Verlinkungen, Link-Equity weitergeben

Code: content=“follow“

NoFollow

Funktion: Links werden nicht verfolgt

Anwendung: Untrusted Content, bezahlte Links

Code: content=“nofollow“

Erweiterte Direktiven

Neben den grundlegenden Index- und Follow-Anweisungen existieren weitere spezialisierte Direktiven, die zusätzliche Kontrolle über die Darstellung und das Verhalten in Suchmaschinen bieten.

NoArchive

Die NoArchive-Direktive verhindert, dass Suchmaschinen eine gecachte Version Ihrer Seite speichern und anzeigen. Dies ist besonders relevant für zeitkritische Inhalte oder Seiten mit sensiblen Informationen, die nicht in veralteten Versionen zugänglich sein sollen.

<meta name="robots" content="noarchive">

NoSnippet

NoSnippet verhindert die Anzeige von Textauszügen in den Suchergebnissen. Suchmaschinen zeigen dann nur den Titel und die URL an, ohne beschreibenden Text. Diese Direktive ist nützlich, wenn Sie die Kontrolle über die Darstellung Ihrer Inhalte behalten möchten.

Max-Snippet

Mit max-snippet können Sie die maximale Länge des Textauszugs in Zeichen festlegen. Dies ermöglicht eine präzise Kontrolle darüber, wie viel von Ihrem Content in den Suchergebnissen sichtbar wird.

<meta name="robots" content="max-snippet:160">
<meta name="robots" content="max-snippet:0"> (entspricht nosnippet)

Max-Image-Preview

Diese Direktive kontrolliert die maximale Größe von Bildvorschauen in den Suchergebnissen. Sie können zwischen „none“, „standard“ und „large“ wählen, je nachdem, wie Ihre Bilder präsentiert werden sollen.

Max-Video-Preview

Für Videoinhalte können Sie mit max-video-preview festlegen, wie lange eine Videovorschau maximal sein darf. Der Wert wird in Sekunden angegeben.

<meta name="robots" content="max-video-preview:30">
<meta name="robots" content="max-video-preview:-1"> (unbegrenzt)

NoImageIndex

Die NoImageIndex-Direktive verhindert, dass Bilder auf Ihrer Seite von Suchmaschinen indexiert werden. Die Seite selbst kann weiterhin indexiert werden, aber die Bilder erscheinen nicht in der Bildersuche.

Unavailable_After

Mit dieser Direktive können Sie ein Datum festlegen, nach dem die Seite nicht mehr in den Suchergebnissen erscheinen soll. Dies ist ideal für zeitlich begrenzte Angebote oder Events.

<meta name="robots" content="unavailable_after: 2025-12-31">

Suchmaschinen-spezifische Meta Robots Tags

Während das generische „robots“ Meta Tag von allen Suchmaschinen verstanden wird, können Sie auch spezifische Anweisungen für einzelne Crawler definieren. Dies ermöglicht eine differenzierte Steuerung je nach Suchmaschine.

Suchmaschine Meta Name Beispiel
Google googlebot <meta name=“googlebot“ content=“noindex“>
Google News googlebot-news <meta name=“googlebot-news“ content=“nosnippet“>
Google Images googlebot-image <meta name=“googlebot-image“ content=“noimageindex“>
Bing bingbot <meta name=“bingbot“ content=“noarchive“>
Yandex yandex <meta name=“yandex“ content=“noindex, nofollow“>

Kombinierte Anweisungen

Sie können mehrere Direktiven in einem einzigen Meta Tag kombinieren, indem Sie sie durch Kommas trennen. Dies ermöglicht eine kompakte und effiziente Steuerung des Crawler-Verhaltens.

<meta name="robots" content="noindex, nofollow, noarchive">
<meta name="googlebot" content="index, follow, max-snippet:160, max-image-preview:large">

X-Robots-Tag im HTTP-Header

Neben Meta Tags im HTML-Head können Robots-Anweisungen auch über HTTP-Header übermittelt werden. Dies ist besonders nützlich für Nicht-HTML-Dateien wie PDFs, Bilder oder andere Dokumente.

Vorteile des X-Robots-Tags

  • Funktioniert für alle Dateitypen, nicht nur HTML
  • Kann zentral auf Server-Ebene implementiert werden
  • Keine Änderungen am Dateiinhalt erforderlich
  • Ideal für dynamisch generierte Inhalte
  • Kann mit regulären Ausdrücken auf viele Dateien angewendet werden

Implementierung im HTTP-Header

Die Implementierung erfolgt über die Server-Konfiguration, beispielsweise in der .htaccess-Datei bei Apache-Servern oder in der nginx.conf bei Nginx-Servern.

# Apache .htaccess
<Files "dokument.pdf">
Header set X-Robots-Tag "noindex, nofollow"
</Files>

# Nginx
location ~* .pdf$ {
add_header X-Robots-Tag "noindex, nofollow";
}

Best Practices für Meta Robots Tags

Die korrekte Verwendung von Meta Robots Tags erfordert strategisches Denken und technisches Verständnis. Hier sind die wichtigsten Empfehlungen für eine optimale Implementierung.

Strategische Anwendung

Seiten, die NoIndex erhalten sollten

  • Danke-Seiten nach Formularabsendungen
  • Login- und Registrierungsseiten
  • Interne Suchseiten mit Parametern
  • Warenkorb- und Checkout-Seiten
  • Filterseiten mit doppeltem Inhalt
  • Testseiten und Entwicklungsumgebungen
  • Admin-Bereiche und Backend-Seiten

Seiten, die Index behalten sollten

  • Produktseiten mit einzigartigem Content
  • Blog-Artikel und Ratgeber
  • Kategorieseiten mit Mehrwert
  • Landingpages für Marketing-Kampagnen
  • Über-uns und Kontaktseiten
  • Service- und Leistungsübersichten

Wichtiger Hinweis zu Index und Follow

Die Angabe von „index, follow“ ist technisch nicht notwendig, da dies das Standardverhalten ist. Viele SEO-Experten verzichten daher auf diese Direktive bei normalen Seiten und setzen Meta Robots Tags nur bei Ausnahmen ein. Dies reduziert Code-Overhead und verbessert die Wartbarkeit.

Häufige Fehler vermeiden

Bei der Implementierung von Meta Robots Tags können verschiedene Fehler auftreten, die schwerwiegende Auswirkungen auf Ihre SEO haben können.

Kritische Fehler

  • Versehentliches NoIndex auf wichtigen Seiten
  • Widersprüchliche Anweisungen in robots.txt und Meta Tags
  • Blockierung von CSS/JavaScript durch robots.txt bei gleichzeitigem Index-Befehl
  • Mehrere widersprüchliche Meta Robots Tags auf einer Seite
  • Falsche Syntax oder Tippfehler in den Direktiven

Testen und Überwachen

Nach der Implementierung von Meta Robots Tags ist es wichtig, deren Wirkung zu überwachen und zu verifizieren.

Tools zur Überprüfung

Google Search Console

Zeigt indexierte Seiten und Indexierungsprobleme an. Der URL-Prüfungstool ermöglicht die Analyse einzelner Seiten und zeigt, wie Google sie sieht.

Screaming Frog SEO Spider

Crawlt Ihre Website und zeigt alle Meta Robots Tags übersichtlich an. Identifiziert schnell Seiten mit NoIndex oder anderen Direktiven.

Browser-Entwicklertools

Mit F12 können Sie den Quellcode öffnen und im Head-Bereich nach Meta Tags suchen. Ideal für schnelle Überprüfungen einzelner Seiten.

SEO-Browser-Erweiterungen

Tools wie „META SEO Inspector“ oder „SEO Meta in 1 Click“ zeigen Meta Tags direkt im Browser an, ohne dass Sie den Quellcode öffnen müssen.

Meta Robots vs. Robots.txt

Sowohl Meta Robots Tags als auch die robots.txt-Datei dienen der Steuerung von Suchmaschinen-Crawlern, arbeiten aber auf unterschiedlichen Ebenen und haben verschiedene Anwendungsbereiche.

Grundlegende Unterschiede

Kriterium Meta Robots Tags Robots.txt
Ebene Einzelne Seite (Seitenebene) Gesamte Website (Server-Ebene)
Platzierung Im HTML Head-Bereich Root-Verzeichnis der Domain
Funktion Indexierung und Darstellung steuern Crawling verhindern
Granularität Sehr präzise, pro Seite Verzeichnisse und Dateimuster
Indexierung Kann NoIndex setzen Verhindert nur Crawling, nicht Indexierung

Wann welches Tool verwenden?

Robots.txt ist ideal für:

  • Blockierung ganzer Verzeichnisse (z.B. /admin/, /wp-admin/)
  • Ausschluss von Ressourcen-Dateien (CSS, JS, wenn gewünscht)
  • Verhinderung von Server-Überlastung durch Crawler
  • Temporäre Entwicklungsverzeichnisse
  • Große Mengen ähnlicher URLs

Meta Robots Tags sind ideal für:

  • Einzelne Seiten vom Index ausschließen
  • Kontrolle über Snippets und Caching
  • Differenzierte Anweisungen pro Seite
  • Seiten, die gecrawlt aber nicht indexiert werden sollen
  • Dynamische Inhalte mit spezifischen Anforderungen

Wichtige Regel

Wenn eine Seite durch robots.txt blockiert wird, kann der Crawler das Meta Robots Tag nicht lesen. Die Seite könnte dennoch im Index erscheinen (ohne Description), da Google die URL aus externen Links kennt. Für echte NoIndex-Funktionalität muss die Seite crawlbar sein.

Meta Robots in WordPress implementieren

WordPress bietet verschiedene Möglichkeiten, Meta Robots Tags zu implementieren, von manuellen Methoden bis zu Plugin-Lösungen.

Natives WordPress

Seit WordPress 5.7 gibt es native Unterstützung für NoIndex auf bestimmten Seiten. Die Einstellung findet sich unter Einstellungen → Lesen → „Sichtbarkeit für Suchmaschinen“.

Funktionen in functions.php

Für erweiterte Kontrolle können Sie Meta Robots Tags programmatisch über die functions.php Ihres Themes hinzufügen:

function custom_meta_robots() {
if (is_search() || is_404()) {
echo '<meta name="robots" content="noindex, follow">';
}
}
add_action('wp_head', 'custom_meta_robots');

SEO-Plugins

Yoast SEO

Yoast SEO bietet umfassende Kontrolle über Meta Robots Tags. In den erweiterten Einstellungen jeder Seite oder jeden Beitrags können Sie festlegen:

  • Index/NoIndex Status
  • Follow/NoFollow Anweisungen
  • Erweiterte Einstellungen für Archive, Snippets
  • Globale Einstellungen für Post-Types und Taxonomien

Rank Math

Rank Math bietet ähnliche Funktionen mit zusätzlichen Optionen:

  • Granulare Kontrolle pro Seite
  • Bulk-Bearbeitung für mehrere Seiten
  • Automatische NoIndex-Regeln
  • Integration mit Schema Markup

All in One SEO Pack

AIOSEO bietet eine benutzerfreundliche Oberfläche für Meta Robots Einstellungen mit Vorlagen für verschiedene Seitentypen.

Spezielle WordPress-Szenarien

Archivseiten

Autor-, Datums- und Tag-Archive sollten oft auf NoIndex gesetzt werden, wenn sie keinen Mehrwert bieten:

function noindex_archives() {
if (is_author() || is_date() || is_tag()) {
echo '<meta name="robots" content="noindex, follow">';
}
}
add_action('wp_head', 'noindex_archives', 1);

Paginierte Seiten

Die Behandlung von paginierten Inhalten ist komplex. Moderne Best Practice empfiehlt, alle paginierten Seiten indexierbar zu lassen, wenn sie einzigartigen Content bieten.

Anhang-Seiten

WordPress erstellt standardmäßig Attachment-Seiten für Medien. Diese sollten oft auf NoIndex gesetzt werden:

function noindex_attachments() {
if (is_attachment()) {
echo '<meta name="robots" content="noindex, follow">';
}
}
add_action('wp_head', 'noindex_attachments', 1);

Auswirkungen auf SEO und Rankings

Meta Robots Tags haben direkte und indirekte Auswirkungen auf Ihre Suchmaschinenoptimierung und sollten strategisch eingesetzt werden.

Positive Effekte

↑ 30% Verbesserung der Crawl-Effizienz
↓ 45% Reduzierung von Duplicate Content
↑ 25% Steigerung der Indexqualität
↑ 20% Verbesserung relevanter Rankings

Crawl-Budget-Optimierung

Durch gezielten Einsatz von NoIndex auf unwichtigen Seiten konzentrieren sich Crawler auf Ihre wertvollen Inhalte. Dies ist besonders wichtig für große Websites mit tausenden Seiten.

Crawl-Budget sinnvoll nutzen

  • NoIndex auf interne Suchergebnisse
  • Ausschluss von Filterseiten ohne Unique Content
  • Blockierung von Session-IDs und Tracking-Parametern
  • Vermeidung von Crawler-Fallen durch unendliche Kalender

Duplicate Content Management

Meta Robots Tags sind ein effektives Werkzeug gegen Duplicate Content-Probleme. Anstatt kanonische Tags zu verwenden, können Sie Duplikate komplett vom Index ausschließen.

Typische Duplicate Content Szenarien

Druckversionen

Print-Versionen von Artikeln sollten mit NoIndex versehen werden, da sie identischen Content enthalten.

Sortier- und Filtervarianten

Produktlisten mit verschiedenen Sortierungen erzeugen oft Duplicate Content und sollten auf NoIndex gesetzt werden.

Mobile-spezifische URLs

Bei separaten mobilen URLs (m.domain.de) sollte eine Version auf NoIndex gesetzt oder Canonical Tags verwendet werden.

Staging-Umgebungen

Test- und Entwicklungsseiten müssen unbedingt mit NoIndex versehen werden, um Duplicate Content zu vermeiden.

Technische Implementierung und Debugging

Die korrekte technische Implementierung ist entscheidend für die Wirksamkeit von Meta Robots Tags.

Validierung der Implementierung

Schritt-für-Schritt Überprüfung

  1. Quellcode prüfen: Öffnen Sie den Seitenquelltext (Strg+U) und suchen Sie im Head-Bereich nach Meta-Tags
  2. Position verifizieren: Meta Robots Tags müssen im Head-Bereich stehen, idealerweise früh im Code
  3. Syntax kontrollieren: Überprüfen Sie Anführungszeichen, Kommata und Schreibweise der Direktiven
  4. Widersprüche identifizieren: Stellen Sie sicher, dass keine widersprüchlichen Tags existieren
  5. Crawler-Perspektive testen: Nutzen Sie Tools wie Google Search Console URL-Inspektion

Häufige technische Probleme

Doppelte Meta Tags

Manchmal fügen verschiedene Plugins oder Theme-Funktionen gleichzeitig Meta Robots Tags hinzu, was zu Konflikten führen kann.

Problem-Beispiel
<meta name="robots" content="index, follow">
<meta name="robots" content="noindex, nofollow">

Bei widersprüchlichen Anweisungen folgen Suchmaschinen der restriktivsten Direktive (NoIndex).

JavaScript-generierte Meta Tags

Meta Robots Tags, die erst durch JavaScript eingefügt werden, könnten von manchen Crawlern nicht erkannt werden. Implementieren Sie sie immer im serverseitigen HTML.

Caching-Probleme

Änderungen an Meta Robots Tags werden möglicherweise nicht sofort sichtbar, wenn Caching aktiv ist:

  • Browser-Cache leeren
  • Server-seitigen Cache (z.B. Varnish) löschen
  • CDN-Cache invalidieren
  • WordPress-Plugin-Cache (WP Rocket, W3 Total Cache) bereinigen

Monitoring und Wartung

Meta Robots Tags sollten regelmäßig überprüft werden, um sicherzustellen, dass sie wie beabsichtigt funktionieren.

Regelmäßige Audits durchführen

Monatliche Checks
  • Indexierungsstatus in Google Search Console prüfen
  • Neue Seiten auf korrekte Meta Tags überprüfen
  • Logs auf unerwartete NoIndex-Seiten durchsuchen
  • Traffic-Einbrüche mit Meta-Tag-Änderungen korrelieren

Automatisierte Überwachung

Setzen Sie Tools ein, die Sie bei Änderungen an kritischen Meta Tags benachrichtigen:

  • Content-Monitoring-Tools wie ContentKing
  • Custom Alerts in Google Search Console
  • Wöchentliche Crawls mit Screaming Frog (geplant)
  • Status-Monitoring über Uptime-Dienste

Zukunft und Entwicklungen

Die Technologie rund um Meta Robots Tags entwickelt sich kontinuierlich weiter, um den Bedürfnissen moderner Websites gerecht zu werden.

Aktuelle Trends 2025

Indexifembedded

Google hat die Direktive „indexifembedded“ eingeführt, die es ermöglicht, dass eingebettete Inhalte indexiert werden, auch wenn die Hauptseite auf NoIndex steht.

Granulare Snippet-Kontrolle

Die Kontrolle über Snippets wird immer feiner. Neben max-snippet gibt es nun erweiterte Möglichkeiten, bestimmte Bereiche für Snippets zu markieren oder auszuschließen.

AI und Large Language Models

Mit dem Aufkommen von KI-gestützten Suchsystemen diskutiert die SEO-Community über neue Meta-Tag-Direktiven, die speziell für AI-Crawler gedacht sind, um zu steuern, ob und wie Inhalte für Training oder Antworten verwendet werden dürfen.

Best Practices für die Zukunft

Zukunftssichere Implementierung

  • Dokumentieren Sie alle Meta-Tag-Entscheidungen
  • Verwenden Sie strukturierte Daten ergänzend zu Meta Tags
  • Bleiben Sie über Google-Updates informiert
  • Testen Sie neue Direktiven in Staging-Umgebungen
  • Implementieren Sie flexible Systeme, die schnelle Änderungen ermöglichen

Zusammenfassung und Handlungsempfehlungen

Meta Robots Tags sind ein mächtiges Werkzeug in der Suchmaschinenoptimierung, das präzise Kontrolle über Crawling, Indexierung und Darstellung Ihrer Inhalte ermöglicht.

Die wichtigsten Erkenntnisse

Strategischer Einsatz

Setzen Sie Meta Robots Tags gezielt ein, um Ihr Crawl-Budget zu optimieren und nur wertvolle Seiten indexieren zu lassen.

Technische Korrektheit

Achten Sie auf korrekte Syntax, vermeiden Sie Widersprüche und testen Sie regelmäßig die Implementierung.

Kombination mit anderen Tools

Nutzen Sie Meta Robots Tags in Verbindung mit robots.txt, Canonical Tags und Sitemaps für optimale Ergebnisse.

Kontinuierliche Überwachung

Implementieren Sie Monitoring-Prozesse, um unbeabsichtigte Änderungen schnell zu erkennen und zu korrigieren.

Praktische Checkliste

Ihre Meta Robots Implementierungs-Checkliste

  1. Audit durchführen: Analysieren Sie alle aktuellen Meta Robots Tags auf Ihrer Website
  2. Strategie definieren: Legen Sie fest, welche Seiten indexiert werden sollen und welche nicht
  3. Implementierung: Setzen Sie die Tags korrekt im Head-Bereich oder via HTTP-Header
  4. Testing: Überprüfen Sie die Implementierung mit verschiedenen Tools
  5. Dokumentation: Halten Sie Ihre Entscheidungen und Regeln schriftlich fest
  6. Monitoring: Richten Sie automatisierte Überwachung ein
  7. Regelmäßige Reviews: Überprüfen Sie vierteljährlich Ihre Meta-Tag-Strategie
  8. Updates: Bleiben Sie über neue Direktiven und Best Practices informiert

Mit diesem fundierten Wissen über Meta Robots Tags sind Sie in der Lage, die Indexierung Ihrer Website professionell zu steuern und Ihre SEO-Strategie auf das nächste Level zu heben. Die korrekte Implementierung dieser scheinbar einfachen HTML-Elemente kann den Unterschied zwischen einer gut optimierten und einer problematischen Website ausmachen.

Was ist der Unterschied zwischen Meta Robots Tags und robots.txt?

Meta Robots Tags werden direkt im HTML-Code einzelner Seiten platziert und steuern die Indexierung und Darstellung dieser spezifischen Seiten. Die robots.txt-Datei hingegen liegt im Root-Verzeichnis und verhindert das Crawling ganzer Verzeichnisse oder Dateitypen. Wichtig: Wenn robots.txt das Crawling blockiert, kann der Crawler die Meta Robots Tags nicht lesen, wodurch die Seite möglicherweise trotzdem im Index erscheint.

Welche Seiten sollten auf NoIndex gesetzt werden?

Auf NoIndex sollten typischerweise Danke-Seiten, Login-Bereiche, interne Suchseiten, Warenkorb- und Checkout-Seiten, Filterseiten mit doppeltem Inhalt, Admin-Bereiche sowie Testumgebungen gesetzt werden. Diese Seiten bieten keinen Mehrwert in Suchergebnissen und würden das Crawl-Budget verschwenden. Produktseiten, Blog-Artikel und informative Inhaltsseiten sollten hingegen indexierbar bleiben.

Wie implementiere ich Meta Robots Tags in WordPress?

In WordPress können Meta Robots Tags über SEO-Plugins wie Yoast SEO, Rank Math oder All in One SEO implementiert werden. Diese bieten benutzerfreundliche Oberflächen für jeden Beitrag und jede Seite. Alternativ können Sie die Tags programmatisch über die functions.php Ihres Themes hinzufügen oder native WordPress-Funktionen seit Version 5.7 nutzen. Für fortgeschrittene Anwendungen eignet sich auch die Implementierung via HTTP-Header.

Können Meta Robots Tags meine Rankings negativ beeinflussen?

Ja, falsch gesetzte Meta Robots Tags können erheblichen Schaden anrichten. Ein versehentliches NoIndex auf wichtigen Seiten führt zum Verlust der Rankings für diese Seiten. Daher ist es essentiell, die Implementierung regelmäßig zu überprüfen und Monitoring-Tools einzusetzen. Korrekt verwendet verbessern Meta Robots Tags jedoch die SEO-Performance durch optimiertes Crawl-Budget und Vermeidung von Duplicate Content.

Was ist der Unterschied zwischen NoIndex und NoFollow?

NoIndex verhindert, dass eine Seite in den Suchmaschinenindex aufgenommen wird und in Suchergebnissen erscheint. NoFollow hingegen weist Crawler an, den Links auf dieser Seite nicht zu folgen und keinen Link-Equity weiterzugeben. Beide Direktiven können unabhängig voneinander oder kombiniert verwendet werden, je nach strategischem Ziel. Die häufigste Kombination ist NoIndex mit Follow, um Seiten auszuschließen, aber verlinkte Inhalte crawlen zu lassen.

Letzte Bearbeitung am Dienstag, 28. Oktober 2025 – 14:28 Uhr von Alex, Webmaster für Google und Bing SEO.

Konnten wir deine Fragen zu Meta Robots beantworten? Lass es uns gerne wissen, falls etwas nicht stimmen sollte. Feedback ist gerne gesehen, auch zum Thema Meta Robots.