Denn neben einer gut strukturierten übersichtlichen Seite, die auch vom Design überzeugt ist es vor allem wichtig, dass die Website von Nutzern und Interessenten gefunden wird.
Als Vollversammlungsmitglied der IHK Gießen, Friedberg engagiere ich mich für Unternehmer und Unternehmerinnen– auch Start ups und KMU. Aus Erfahrung weiß ich, wie wichtig Branding und Markendesign in Verbindung mit einem öffentlichkeitswirksamen Website-Auftritt ist. Verlassen Sie sich bei mir auf mehr als 20 Jahre Erfahrung in Marketing, Werbung und Webdesign. Aus vielen Corporate-Website Projekten weiß ich worauf es ankommt.
Mit der robots.txt lassen sich die Crawler der Suchmaschinen (z.B. Google) steuern. Was die robots.txt genau ist, wo sie verankert sein muss, wie sie funktioniert und welche Vorteile für SEO damit generiert werden, erläutere ich in diesem Beitrag.
Bei sehr großen Websites tritt häufig das Problem auf, dass der Googlebot sie nicht vollständig crawlt. Dies ist auch der Grund dafür, dass relevante Unterseiten nicht indexiert werden und damit auch nicht ranken können.
Die robots.txt befindet sich im Hauptverzeichnis der jeweiligen Domain und kann unter https://www.eure-domain.de/robots.txt aufgerufen werden. Sollte das nicht so sein, müsste die Funktion und der Speicherort geprüft werden.
Die robots.txt („Robots Exclusion Standard Protokoll“, kurz REP) ist eine Textdatei, in der festgelegt wird, welche Dateien oder Seiten von Crawlern angefordert und ausgespielt werden können und welche nicht. Sie enthält damit Regeln für Webcrawler, die beeinflussen, wie sie sich durch Ihre Website bewegen dürfen. Von großer Bedeutung ist die vor allem für Webseiten-Betreiber großer Domains.
Die robots.txt ist nicht für die Steuerung der Indexierung gedacht, sie vermeidet lediglich, dass Ihre Website durch zu viele Anfragen überlastet wird.Dies macht klar, dass die robots.txt-Datei kein Mechanismus ist, der dabei hilft, einzelne Seiten von der Google-Suche zu entfernen oder zu forcieren.
Bots und Webcrawler, die eine Domain besuchen, nutzen das Dokument und die darin enthaltenen Richtlinien um zu unterscheiden zwishen erlaubten Crawling und ausgeschlossenen Inhalten.
PS: Weil es häufiger passiert, dass fremde Domains auf Webseiten verweisen, die über die robots.txt vom Betreiber durch die robots.txt vom Crawling ausgeschlossen werden landen diese – trotz gegenteiligem Bestreben – doch im Index und werden in den Suchergebnissen aufgenommen. Um URLs also wirklich auszuschließen nicht die robots.txt nutzen.
Domainbetreiber können mit der robots.txt die Möglichkeit zur zielgerichteten Steuerung der Crawler nutzen. Falls Sie also bemerken, dass der Server zu viele Crawlinganfragen erhält, ist es zu empfehlen, weniger wichtige Verzeichnisse, Seiten mit ähnlichem oder gleichem Content, Chatseiten, Warenkorbseiten und Adminseiten vom Crawling auszuschließen. Dieser Ausschluss von speziellen Inhalten bringt zwei maßgebliche Vorteile:
Das Ausschließen eines Verzeichnisses oder einer URL (gewollt oder ungewollt), kann das Rankings beeinflussen oder gar verschlechtern. Denn ausgeschlossene Seiten sind nicht ohne Weiteres auffindbar und stehen damit nicht als Zielseite für Suchergebnisse zur Verfügung. Für Google sind diese vom Crawling ausgeschlossen. Solche, vom Crawling ausgeschlossenen, Seiten können nur als Suchergebnis-Seiten ausgespielt werden, wenn diese von anderen Domains stark verlinkt werden. Seiten, die also definitiv nicht indexiert werden sollen, müssen durch ander Maßnahmen ausgeschlossen werden.
ACHTUNG: Änderungen an einer Website, egal in welcher Form, müssen von Google zuerst gecrawlt werden, um sie berücksichtigen zu können.
Eine korrekte robots.txt und deren Verwendung hat keine direkte Auswirkung auf das Ranking in den SERPs, weil durch diese Textdatei lediglich das Crawlbudget ideal genutzt wird und damit auf relevante URLs beschränkt wird. Eine fehlerhafte Datei kann jedoch zu Abwertungen führen. Der Grund dafür: Die Einschränkung behindert Google beim Lesen wichtiger Seiten mit hochwertigem, sodass dieser nicht indexiert werden kann.
Jetzt anmelden: Wissen rund um Onlinemarketing, Webdesign und WordPress
Mehr als 25 Jahre Erfahrung in Werbung und Marketing für Unternehmen und Arztpraxen.
Ich bin begeisterte Webdesignerin mit Direktmarketing-Erfahrung und Empathie für Menschen und Heilberufe.
Ich biete Fullservice rund um Ihre Werbung und die Außendarstellung. Sie haben eine Ansprechpartnerin und kommen ohne Kommunikationsverlust schnell und sicher ans Ziel.
Ich beherrsche Suchmaschinenoptimeirung (SEO). Von mir bekommen sie eine schöne und moderne Website, die auch bei Google gefunden wird.
Ich biete neben Schulungen auch Support und die regelmäßige Websitepfelge. Sie können sicher sein, dass Sie auch nach der Fertigstellung einen Ansprechpartner haben.
kexDESIGN – Webagentur – Kornelia Exner – Schlosswiesenstr. 3 – 61197 Florstadt – Fon: 06035 208564