Ich freue mich heute endlich Seerobots vorstellen zu können. Wer sich viel Suchmaschinenoptimierung auseinandersetzt, wird sicher immer darauf bedacht sein, welche Seiten einer Domain er Google als „Index-geeignet“ präsentiert. Die steuert man bekanntlich am einfachsten mit den Meta Robots. Mir hat immer ein Tool gefehlt, mit dem ich einfach schauen kann ob eine Seite auf Index oder Noindex gesetzt ist und nun habe ich mit Bene zusammen ein Tool dafür gebastelt. Es ist ein kostenloses Firefox Addon, das man direkt bei Mozilla runterladen kann. Ich selbst benutze es eher in einer „minimalistischen“ Version. Hier zu sehen
Das feine kleine Ding kann aber noch mehr z.B. „On-Klick“ die HTTP X-Robots sichtbar machen, mit denen so mancher Linktausch“partner“ oder schumellige Link“verkäufer“ manchmal arbeitet. Hier wie das Plugin das dann zeigt.
Wir freuen uns wenn das Tool nicht nur uns hilft sondern breit genutzt wird. Natürlich findet man Seerobots auch bei Twitter und Facebook. Viel Spaß damit. Wir freuen uns über Blogposts unterschiedlicher Anwendungsmöglichkeiten und Weiterempfehlungen.
Genau sowas hab ich gesucht. Danke 🙂
Das ist mal ein tolles Tool. Danke für die Erweiterun. Grüße Nico
Hi andre,
es erspart auf jeden Fall schonmal lästiges Quelltext anzeigen, aber ich hätte am liebsten noch eine Erweiterung des ganzen. Wenn es möglich wäre per Klick die SERP bei Google zum H1 auf der beobachteten Seite anzuzeigen, wäre es noch genialer! Top 100 würden natürlich reichen. Denke mal das ist nur schwer umsetzbar, wegen den begrenzten anfragen an google, qber wenn man es per onclick macht, vielleicht machbar.
Grüße!
Klasse Firefox Addon … kann ich nur empfehlen … auch das Logo ist sehr gelungen … Vielen Dank!
Hab es mir mal installiert sieht ganz nützlich aus. Danke dafür!!
Hab da aber einen strammen Bug unter MacOSX gefunden. Wollte dir schon in Skype Bescheid geben aber das geht nicht. 😉 Kannst dich ja mal melden…
Das Tool ist echt praktisch. Sehr schön & vielen Dank 🙂 Kleiner Wehrmutstropfen: Es schiebt sich einfach nach ganz rechts vor alle meine anderen AddOns – das ist jetzt nicht so die feine englische Art. Kann man hier noch was machen?
Wird die robots.txt analysiert?
Diese Erweiterung ist wirklich super. Was nutzt ihr eigentlich sonst noch für Addons/Tools? Ich persönlich nutze außerdem SEOQuake, SEO Link Analysis und natürlich die Sistrix-Erweiterung.
Super Toolbar.
Wird auch die robots.txt berücksichtigt?
Derzeit erfolgt keine Berücksichtigung der Robots.txt – ab der Version 0.3 werden wir dann aber wohl auch die Robots.txt berücksichtigen bzw. eine Auswertung in der Statusbar vornehmen!
Thx, cooles Teil.
Das wäre auch nett, wenn das Tool anzeigt, was da noch so in der robots steht, z.B. welche Agents bzw. Crawler ausgesperrt werden.
Planst du sowas, Andre?
[…] Seerobots- Neuer Star am SEO-Plugin-Firmament. […]
Ich wette den Teil der Programmierung hat Andre übernommen 😉
@ Witold: siehe http://www.seerobots.com/about – ich habe das nicht allein gemacht. Das techische ist nicht meine stärkste Seite 😉 Das habt Bene gezaubert! :-)))
Wirklich praktisches Tool! Vielen Dank!
Tolles Ding…wandert direkt in die Toolbar! Vielen Dank!
[…] googlen: robots.txt disallow, noindex meta robots, 302 redirect indexierung und Euch das Firefox Plugin Seerobots holen. Wenn es kein technisches Problem gibt, könnt Ihr fremde, nicht indizierte Seiten schnell […]