Die Meta Robots Tags gehören zu den wichtigsten Werkzeugen der Suchmaschinenoptimierung und steuern, wie Suchmaschinen mit Ihren Webseiten umgehen. Diese unsichtbaren HTML-Anweisungen im Head-Bereich entscheiden darüber, ob Ihre Inhalte indexiert werden, ob Links verfolgt werden und wie Ihre Seiten in den Suchergebnissen erscheinen. Ein korrekter Einsatz von Meta Robots kann Ihre SEO-Strategie erheblich verbessern, während Fehler zu erheblichen Sichtbarkeitsverlusten führen können.
Was sind Meta Robots Tags?
Meta Robots Tags sind HTML-Elemente, die im Head-Bereich einer Webseite platziert werden und Suchmaschinen-Crawlern spezifische Anweisungen geben. Diese Tags kontrollieren das Crawling- und Indexierungsverhalten von Suchmaschinen wie Google, Bing und anderen. Sie sind ein unverzichtbares Werkzeug für Webmaster und SEO-Spezialisten, um die Sichtbarkeit ihrer Inhalte gezielt zu steuern.
Im Gegensatz zu robots.txt-Dateien, die auf Server-Ebene arbeiten, wirken Meta Robots Tags auf einzelne Seiten und bieten dadurch eine granulare Kontrolle. Sie werden direkt im HTML-Code eingebettet und von Suchmaschinen-Crawlern beim Besuch der Seite ausgelesen und befolgt.
Grundlegende Syntax
Meta Robots Tags werden im Head-Bereich einer HTML-Seite eingefügt und folgen einer standardisierten Syntax. Die korrekte Implementierung ist entscheidend für ihre Wirksamkeit.
<meta name="robots" content="index, follow"><meta name="googlebot" content="noindex, nofollow"><meta name="robots" content="noindex, nofollow, noarchive">
Die wichtigsten Meta Robots Direktiven
Es gibt verschiedene Direktiven, die einzeln oder in Kombination verwendet werden können. Jede Direktive hat eine spezifische Funktion und beeinflusst das Verhalten von Suchmaschinen auf unterschiedliche Weise.
Index und NoIndex
Die Index-Direktive erlaubt Suchmaschinen, eine Seite in ihren Index aufzunehmen und in den Suchergebnissen anzuzeigen. Dies ist das Standardverhalten, wenn kein Meta Robots Tag vorhanden ist. Die NoIndex-Direktive hingegen verhindert die Aufnahme in den Suchindex und ist besonders nützlich für Seiten mit doppeltem Inhalt, Testseiten oder interne Bereiche.
Index
Funktion: Seite darf indexiert werden
Anwendung: Öffentliche Inhalte, Produktseiten, Blogartikel
Code: content=“index“
NoIndex
Funktion: Seite wird nicht indexiert
Anwendung: Danke-Seiten, Login-Bereiche, Duplicate Content
Code: content=“noindex“
Follow
Funktion: Links werden verfolgt
Anwendung: Normale Verlinkungen, Link-Equity weitergeben
Code: content=“follow“
NoFollow
Funktion: Links werden nicht verfolgt
Anwendung: Untrusted Content, bezahlte Links
Code: content=“nofollow“
Erweiterte Direktiven
Neben den grundlegenden Index- und Follow-Anweisungen existieren weitere spezialisierte Direktiven, die zusätzliche Kontrolle über die Darstellung und das Verhalten in Suchmaschinen bieten.
NoArchive
Die NoArchive-Direktive verhindert, dass Suchmaschinen eine gecachte Version Ihrer Seite speichern und anzeigen. Dies ist besonders relevant für zeitkritische Inhalte oder Seiten mit sensiblen Informationen, die nicht in veralteten Versionen zugänglich sein sollen.
<meta name="robots" content="noarchive">
NoSnippet
NoSnippet verhindert die Anzeige von Textauszügen in den Suchergebnissen. Suchmaschinen zeigen dann nur den Titel und die URL an, ohne beschreibenden Text. Diese Direktive ist nützlich, wenn Sie die Kontrolle über die Darstellung Ihrer Inhalte behalten möchten.
Max-Snippet
Mit max-snippet können Sie die maximale Länge des Textauszugs in Zeichen festlegen. Dies ermöglicht eine präzise Kontrolle darüber, wie viel von Ihrem Content in den Suchergebnissen sichtbar wird.
<meta name="robots" content="max-snippet:160"><meta name="robots" content="max-snippet:0"> (entspricht nosnippet)
Max-Image-Preview
Diese Direktive kontrolliert die maximale Größe von Bildvorschauen in den Suchergebnissen. Sie können zwischen „none“, „standard“ und „large“ wählen, je nachdem, wie Ihre Bilder präsentiert werden sollen.
Max-Video-Preview
Für Videoinhalte können Sie mit max-video-preview festlegen, wie lange eine Videovorschau maximal sein darf. Der Wert wird in Sekunden angegeben.
<meta name="robots" content="max-video-preview:30"><meta name="robots" content="max-video-preview:-1"> (unbegrenzt)
NoImageIndex
Die NoImageIndex-Direktive verhindert, dass Bilder auf Ihrer Seite von Suchmaschinen indexiert werden. Die Seite selbst kann weiterhin indexiert werden, aber die Bilder erscheinen nicht in der Bildersuche.
Unavailable_After
Mit dieser Direktive können Sie ein Datum festlegen, nach dem die Seite nicht mehr in den Suchergebnissen erscheinen soll. Dies ist ideal für zeitlich begrenzte Angebote oder Events.
<meta name="robots" content="unavailable_after: 2025-12-31">
Suchmaschinen-spezifische Meta Robots Tags
Während das generische „robots“ Meta Tag von allen Suchmaschinen verstanden wird, können Sie auch spezifische Anweisungen für einzelne Crawler definieren. Dies ermöglicht eine differenzierte Steuerung je nach Suchmaschine.
| Suchmaschine | Meta Name | Beispiel |
|---|---|---|
| googlebot | <meta name=“googlebot“ content=“noindex“> | |
| Google News | googlebot-news | <meta name=“googlebot-news“ content=“nosnippet“> |
| Google Images | googlebot-image | <meta name=“googlebot-image“ content=“noimageindex“> |
| Bing | bingbot | <meta name=“bingbot“ content=“noarchive“> |
| Yandex | yandex | <meta name=“yandex“ content=“noindex, nofollow“> |
Kombinierte Anweisungen
Sie können mehrere Direktiven in einem einzigen Meta Tag kombinieren, indem Sie sie durch Kommas trennen. Dies ermöglicht eine kompakte und effiziente Steuerung des Crawler-Verhaltens.
<meta name="robots" content="noindex, nofollow, noarchive"><meta name="googlebot" content="index, follow, max-snippet:160, max-image-preview:large">
X-Robots-Tag im HTTP-Header
Neben Meta Tags im HTML-Head können Robots-Anweisungen auch über HTTP-Header übermittelt werden. Dies ist besonders nützlich für Nicht-HTML-Dateien wie PDFs, Bilder oder andere Dokumente.
Vorteile des X-Robots-Tags
- Funktioniert für alle Dateitypen, nicht nur HTML
- Kann zentral auf Server-Ebene implementiert werden
- Keine Änderungen am Dateiinhalt erforderlich
- Ideal für dynamisch generierte Inhalte
- Kann mit regulären Ausdrücken auf viele Dateien angewendet werden
Implementierung im HTTP-Header
Die Implementierung erfolgt über die Server-Konfiguration, beispielsweise in der .htaccess-Datei bei Apache-Servern oder in der nginx.conf bei Nginx-Servern.
# Apache .htaccess<Files "dokument.pdf">Header set X-Robots-Tag "noindex, nofollow"</Files># Nginxlocation ~* .pdf$ { add_header X-Robots-Tag "noindex, nofollow";}
Best Practices für Meta Robots Tags
Die korrekte Verwendung von Meta Robots Tags erfordert strategisches Denken und technisches Verständnis. Hier sind die wichtigsten Empfehlungen für eine optimale Implementierung.
Strategische Anwendung
Seiten, die NoIndex erhalten sollten
- Danke-Seiten nach Formularabsendungen
- Login- und Registrierungsseiten
- Interne Suchseiten mit Parametern
- Warenkorb- und Checkout-Seiten
- Filterseiten mit doppeltem Inhalt
- Testseiten und Entwicklungsumgebungen
- Admin-Bereiche und Backend-Seiten
Seiten, die Index behalten sollten
- Produktseiten mit einzigartigem Content
- Blog-Artikel und Ratgeber
- Kategorieseiten mit Mehrwert
- Landingpages für Marketing-Kampagnen
- Über-uns und Kontaktseiten
- Service- und Leistungsübersichten
Wichtiger Hinweis zu Index und Follow
Die Angabe von „index, follow“ ist technisch nicht notwendig, da dies das Standardverhalten ist. Viele SEO-Experten verzichten daher auf diese Direktive bei normalen Seiten und setzen Meta Robots Tags nur bei Ausnahmen ein. Dies reduziert Code-Overhead und verbessert die Wartbarkeit.
Häufige Fehler vermeiden
Bei der Implementierung von Meta Robots Tags können verschiedene Fehler auftreten, die schwerwiegende Auswirkungen auf Ihre SEO haben können.
Kritische Fehler
- Versehentliches NoIndex auf wichtigen Seiten
- Widersprüchliche Anweisungen in robots.txt und Meta Tags
- Blockierung von CSS/JavaScript durch robots.txt bei gleichzeitigem Index-Befehl
- Mehrere widersprüchliche Meta Robots Tags auf einer Seite
- Falsche Syntax oder Tippfehler in den Direktiven
Testen und Überwachen
Nach der Implementierung von Meta Robots Tags ist es wichtig, deren Wirkung zu überwachen und zu verifizieren.
Tools zur Überprüfung
Google Search Console
Zeigt indexierte Seiten und Indexierungsprobleme an. Der URL-Prüfungstool ermöglicht die Analyse einzelner Seiten und zeigt, wie Google sie sieht.
Screaming Frog SEO Spider
Crawlt Ihre Website und zeigt alle Meta Robots Tags übersichtlich an. Identifiziert schnell Seiten mit NoIndex oder anderen Direktiven.
Browser-Entwicklertools
Mit F12 können Sie den Quellcode öffnen und im Head-Bereich nach Meta Tags suchen. Ideal für schnelle Überprüfungen einzelner Seiten.
SEO-Browser-Erweiterungen
Tools wie „META SEO Inspector“ oder „SEO Meta in 1 Click“ zeigen Meta Tags direkt im Browser an, ohne dass Sie den Quellcode öffnen müssen.
Meta Robots vs. Robots.txt
Sowohl Meta Robots Tags als auch die robots.txt-Datei dienen der Steuerung von Suchmaschinen-Crawlern, arbeiten aber auf unterschiedlichen Ebenen und haben verschiedene Anwendungsbereiche.
Grundlegende Unterschiede
| Kriterium | Meta Robots Tags | Robots.txt |
|---|---|---|
| Ebene | Einzelne Seite (Seitenebene) | Gesamte Website (Server-Ebene) |
| Platzierung | Im HTML Head-Bereich | Root-Verzeichnis der Domain |
| Funktion | Indexierung und Darstellung steuern | Crawling verhindern |
| Granularität | Sehr präzise, pro Seite | Verzeichnisse und Dateimuster |
| Indexierung | Kann NoIndex setzen | Verhindert nur Crawling, nicht Indexierung |
Wann welches Tool verwenden?
Robots.txt ist ideal für:
- Blockierung ganzer Verzeichnisse (z.B. /admin/, /wp-admin/)
- Ausschluss von Ressourcen-Dateien (CSS, JS, wenn gewünscht)
- Verhinderung von Server-Überlastung durch Crawler
- Temporäre Entwicklungsverzeichnisse
- Große Mengen ähnlicher URLs
Meta Robots Tags sind ideal für:
- Einzelne Seiten vom Index ausschließen
- Kontrolle über Snippets und Caching
- Differenzierte Anweisungen pro Seite
- Seiten, die gecrawlt aber nicht indexiert werden sollen
- Dynamische Inhalte mit spezifischen Anforderungen
Wichtige Regel
Wenn eine Seite durch robots.txt blockiert wird, kann der Crawler das Meta Robots Tag nicht lesen. Die Seite könnte dennoch im Index erscheinen (ohne Description), da Google die URL aus externen Links kennt. Für echte NoIndex-Funktionalität muss die Seite crawlbar sein.
Meta Robots in WordPress implementieren
WordPress bietet verschiedene Möglichkeiten, Meta Robots Tags zu implementieren, von manuellen Methoden bis zu Plugin-Lösungen.
Natives WordPress
Seit WordPress 5.7 gibt es native Unterstützung für NoIndex auf bestimmten Seiten. Die Einstellung findet sich unter Einstellungen → Lesen → „Sichtbarkeit für Suchmaschinen“.
Funktionen in functions.php
Für erweiterte Kontrolle können Sie Meta Robots Tags programmatisch über die functions.php Ihres Themes hinzufügen:
function custom_meta_robots() { if (is_search() || is_404()) { echo '<meta name="robots" content="noindex, follow">'; }}add_action('wp_head', 'custom_meta_robots');
SEO-Plugins
Yoast SEO
Yoast SEO bietet umfassende Kontrolle über Meta Robots Tags. In den erweiterten Einstellungen jeder Seite oder jeden Beitrags können Sie festlegen:
- Index/NoIndex Status
- Follow/NoFollow Anweisungen
- Erweiterte Einstellungen für Archive, Snippets
- Globale Einstellungen für Post-Types und Taxonomien
Rank Math
Rank Math bietet ähnliche Funktionen mit zusätzlichen Optionen:
- Granulare Kontrolle pro Seite
- Bulk-Bearbeitung für mehrere Seiten
- Automatische NoIndex-Regeln
- Integration mit Schema Markup
All in One SEO Pack
AIOSEO bietet eine benutzerfreundliche Oberfläche für Meta Robots Einstellungen mit Vorlagen für verschiedene Seitentypen.
Spezielle WordPress-Szenarien
Archivseiten
Autor-, Datums- und Tag-Archive sollten oft auf NoIndex gesetzt werden, wenn sie keinen Mehrwert bieten:
function noindex_archives() { if (is_author() || is_date() || is_tag()) { echo '<meta name="robots" content="noindex, follow">'; }}add_action('wp_head', 'noindex_archives', 1);
Paginierte Seiten
Die Behandlung von paginierten Inhalten ist komplex. Moderne Best Practice empfiehlt, alle paginierten Seiten indexierbar zu lassen, wenn sie einzigartigen Content bieten.
Anhang-Seiten
WordPress erstellt standardmäßig Attachment-Seiten für Medien. Diese sollten oft auf NoIndex gesetzt werden:
function noindex_attachments() { if (is_attachment()) { echo '<meta name="robots" content="noindex, follow">'; }}add_action('wp_head', 'noindex_attachments', 1);
Auswirkungen auf SEO und Rankings
Meta Robots Tags haben direkte und indirekte Auswirkungen auf Ihre Suchmaschinenoptimierung und sollten strategisch eingesetzt werden.
Positive Effekte
Crawl-Budget-Optimierung
Durch gezielten Einsatz von NoIndex auf unwichtigen Seiten konzentrieren sich Crawler auf Ihre wertvollen Inhalte. Dies ist besonders wichtig für große Websites mit tausenden Seiten.
Crawl-Budget sinnvoll nutzen
- NoIndex auf interne Suchergebnisse
- Ausschluss von Filterseiten ohne Unique Content
- Blockierung von Session-IDs und Tracking-Parametern
- Vermeidung von Crawler-Fallen durch unendliche Kalender
Duplicate Content Management
Meta Robots Tags sind ein effektives Werkzeug gegen Duplicate Content-Probleme. Anstatt kanonische Tags zu verwenden, können Sie Duplikate komplett vom Index ausschließen.
Typische Duplicate Content Szenarien
Druckversionen
Print-Versionen von Artikeln sollten mit NoIndex versehen werden, da sie identischen Content enthalten.
Sortier- und Filtervarianten
Produktlisten mit verschiedenen Sortierungen erzeugen oft Duplicate Content und sollten auf NoIndex gesetzt werden.
Mobile-spezifische URLs
Bei separaten mobilen URLs (m.domain.de) sollte eine Version auf NoIndex gesetzt oder Canonical Tags verwendet werden.
Staging-Umgebungen
Test- und Entwicklungsseiten müssen unbedingt mit NoIndex versehen werden, um Duplicate Content zu vermeiden.
Technische Implementierung und Debugging
Die korrekte technische Implementierung ist entscheidend für die Wirksamkeit von Meta Robots Tags.
Validierung der Implementierung
Schritt-für-Schritt Überprüfung
- Quellcode prüfen: Öffnen Sie den Seitenquelltext (Strg+U) und suchen Sie im Head-Bereich nach Meta-Tags
- Position verifizieren: Meta Robots Tags müssen im Head-Bereich stehen, idealerweise früh im Code
- Syntax kontrollieren: Überprüfen Sie Anführungszeichen, Kommata und Schreibweise der Direktiven
- Widersprüche identifizieren: Stellen Sie sicher, dass keine widersprüchlichen Tags existieren
- Crawler-Perspektive testen: Nutzen Sie Tools wie Google Search Console URL-Inspektion
Häufige technische Probleme
Doppelte Meta Tags
Manchmal fügen verschiedene Plugins oder Theme-Funktionen gleichzeitig Meta Robots Tags hinzu, was zu Konflikten führen kann.
Problem-Beispiel
<meta name="robots" content="index, follow"><meta name="robots" content="noindex, nofollow">Bei widersprüchlichen Anweisungen folgen Suchmaschinen der restriktivsten Direktive (NoIndex).
JavaScript-generierte Meta Tags
Meta Robots Tags, die erst durch JavaScript eingefügt werden, könnten von manchen Crawlern nicht erkannt werden. Implementieren Sie sie immer im serverseitigen HTML.
Caching-Probleme
Änderungen an Meta Robots Tags werden möglicherweise nicht sofort sichtbar, wenn Caching aktiv ist:
- Browser-Cache leeren
- Server-seitigen Cache (z.B. Varnish) löschen
- CDN-Cache invalidieren
- WordPress-Plugin-Cache (WP Rocket, W3 Total Cache) bereinigen
Monitoring und Wartung
Meta Robots Tags sollten regelmäßig überprüft werden, um sicherzustellen, dass sie wie beabsichtigt funktionieren.
Regelmäßige Audits durchführen
Monatliche Checks
- Indexierungsstatus in Google Search Console prüfen
- Neue Seiten auf korrekte Meta Tags überprüfen
- Logs auf unerwartete NoIndex-Seiten durchsuchen
- Traffic-Einbrüche mit Meta-Tag-Änderungen korrelieren
Automatisierte Überwachung
Setzen Sie Tools ein, die Sie bei Änderungen an kritischen Meta Tags benachrichtigen:
- Content-Monitoring-Tools wie ContentKing
- Custom Alerts in Google Search Console
- Wöchentliche Crawls mit Screaming Frog (geplant)
- Status-Monitoring über Uptime-Dienste
Zukunft und Entwicklungen
Die Technologie rund um Meta Robots Tags entwickelt sich kontinuierlich weiter, um den Bedürfnissen moderner Websites gerecht zu werden.
Aktuelle Trends 2025
Indexifembedded
Google hat die Direktive „indexifembedded“ eingeführt, die es ermöglicht, dass eingebettete Inhalte indexiert werden, auch wenn die Hauptseite auf NoIndex steht.
Granulare Snippet-Kontrolle
Die Kontrolle über Snippets wird immer feiner. Neben max-snippet gibt es nun erweiterte Möglichkeiten, bestimmte Bereiche für Snippets zu markieren oder auszuschließen.
AI und Large Language Models
Mit dem Aufkommen von KI-gestützten Suchsystemen diskutiert die SEO-Community über neue Meta-Tag-Direktiven, die speziell für AI-Crawler gedacht sind, um zu steuern, ob und wie Inhalte für Training oder Antworten verwendet werden dürfen.
Best Practices für die Zukunft
Zukunftssichere Implementierung
- Dokumentieren Sie alle Meta-Tag-Entscheidungen
- Verwenden Sie strukturierte Daten ergänzend zu Meta Tags
- Bleiben Sie über Google-Updates informiert
- Testen Sie neue Direktiven in Staging-Umgebungen
- Implementieren Sie flexible Systeme, die schnelle Änderungen ermöglichen
Zusammenfassung und Handlungsempfehlungen
Meta Robots Tags sind ein mächtiges Werkzeug in der Suchmaschinenoptimierung, das präzise Kontrolle über Crawling, Indexierung und Darstellung Ihrer Inhalte ermöglicht.
Die wichtigsten Erkenntnisse
Strategischer Einsatz
Setzen Sie Meta Robots Tags gezielt ein, um Ihr Crawl-Budget zu optimieren und nur wertvolle Seiten indexieren zu lassen.
Technische Korrektheit
Achten Sie auf korrekte Syntax, vermeiden Sie Widersprüche und testen Sie regelmäßig die Implementierung.
Kombination mit anderen Tools
Nutzen Sie Meta Robots Tags in Verbindung mit robots.txt, Canonical Tags und Sitemaps für optimale Ergebnisse.
Kontinuierliche Überwachung
Implementieren Sie Monitoring-Prozesse, um unbeabsichtigte Änderungen schnell zu erkennen und zu korrigieren.
Praktische Checkliste
Ihre Meta Robots Implementierungs-Checkliste
- Audit durchführen: Analysieren Sie alle aktuellen Meta Robots Tags auf Ihrer Website
- Strategie definieren: Legen Sie fest, welche Seiten indexiert werden sollen und welche nicht
- Implementierung: Setzen Sie die Tags korrekt im Head-Bereich oder via HTTP-Header
- Testing: Überprüfen Sie die Implementierung mit verschiedenen Tools
- Dokumentation: Halten Sie Ihre Entscheidungen und Regeln schriftlich fest
- Monitoring: Richten Sie automatisierte Überwachung ein
- Regelmäßige Reviews: Überprüfen Sie vierteljährlich Ihre Meta-Tag-Strategie
- Updates: Bleiben Sie über neue Direktiven und Best Practices informiert
Mit diesem fundierten Wissen über Meta Robots Tags sind Sie in der Lage, die Indexierung Ihrer Website professionell zu steuern und Ihre SEO-Strategie auf das nächste Level zu heben. Die korrekte Implementierung dieser scheinbar einfachen HTML-Elemente kann den Unterschied zwischen einer gut optimierten und einer problematischen Website ausmachen.
Was ist der Unterschied zwischen Meta Robots Tags und robots.txt?
Meta Robots Tags werden direkt im HTML-Code einzelner Seiten platziert und steuern die Indexierung und Darstellung dieser spezifischen Seiten. Die robots.txt-Datei hingegen liegt im Root-Verzeichnis und verhindert das Crawling ganzer Verzeichnisse oder Dateitypen. Wichtig: Wenn robots.txt das Crawling blockiert, kann der Crawler die Meta Robots Tags nicht lesen, wodurch die Seite möglicherweise trotzdem im Index erscheint.
Welche Seiten sollten auf NoIndex gesetzt werden?
Auf NoIndex sollten typischerweise Danke-Seiten, Login-Bereiche, interne Suchseiten, Warenkorb- und Checkout-Seiten, Filterseiten mit doppeltem Inhalt, Admin-Bereiche sowie Testumgebungen gesetzt werden. Diese Seiten bieten keinen Mehrwert in Suchergebnissen und würden das Crawl-Budget verschwenden. Produktseiten, Blog-Artikel und informative Inhaltsseiten sollten hingegen indexierbar bleiben.
Wie implementiere ich Meta Robots Tags in WordPress?
In WordPress können Meta Robots Tags über SEO-Plugins wie Yoast SEO, Rank Math oder All in One SEO implementiert werden. Diese bieten benutzerfreundliche Oberflächen für jeden Beitrag und jede Seite. Alternativ können Sie die Tags programmatisch über die functions.php Ihres Themes hinzufügen oder native WordPress-Funktionen seit Version 5.7 nutzen. Für fortgeschrittene Anwendungen eignet sich auch die Implementierung via HTTP-Header.
Können Meta Robots Tags meine Rankings negativ beeinflussen?
Ja, falsch gesetzte Meta Robots Tags können erheblichen Schaden anrichten. Ein versehentliches NoIndex auf wichtigen Seiten führt zum Verlust der Rankings für diese Seiten. Daher ist es essentiell, die Implementierung regelmäßig zu überprüfen und Monitoring-Tools einzusetzen. Korrekt verwendet verbessern Meta Robots Tags jedoch die SEO-Performance durch optimiertes Crawl-Budget und Vermeidung von Duplicate Content.
Was ist der Unterschied zwischen NoIndex und NoFollow?
NoIndex verhindert, dass eine Seite in den Suchmaschinenindex aufgenommen wird und in Suchergebnissen erscheint. NoFollow hingegen weist Crawler an, den Links auf dieser Seite nicht zu folgen und keinen Link-Equity weiterzugeben. Beide Direktiven können unabhängig voneinander oder kombiniert verwendet werden, je nach strategischem Ziel. Die häufigste Kombination ist NoIndex mit Follow, um Seiten auszuschließen, aber verlinkte Inhalte crawlen zu lassen.
Letzte Bearbeitung am Dienstag, 28. Oktober 2025 – 14:28 Uhr von Alex, Webmaster für Google und Bing SEO.
