SEO ist ist kurz gesagt das Bestreben, die Seiten für die Suchmaschinen attraktiv zu machen. Da Suchmaschinen weitestgehend unintelligent sind, ist das eigentliche Ziel aber, eine Seite in der Suchergebnisliste möglichst weit nach oben zu bringen, damit dann der suchende Internetnutzer möglichst diese Seite aufruft. Wenn er Glück hat, findet der geneigte Leser dann tatsächlich etwas zu dem Thema, nach dem er gesucht hatte. Wenn er Pech hat, ist er einer Überoptimierung mit unlauteren Mitteln aufgesessen, oder einfach der Unfähigkeit des Bewertungs- und Rankingverfahrens der Suchmaschine zum Opfer gefallen. Wobei man den Begriff ‚Suchmaschinen‘ besser in die Einzahl setzen muß, denn Optimierungen lohnen sich nur für Google. Die paar Prozent, die andere Suchmaschinen vom Suchkuchen abbekommen, sind nicht der Rede wert.
Einen etwas anderen Weg bin ich mal versuchsweise gegangen, die Idee findet man auch bei S.i.T. wieder, wo er im Artikel „Sie haben Post“ schreibt: „…Gemäß dem Fall, alle würden sich einer Indizierung durch Robots/Bots entziehen, würden sie aber in Mountain View und anderswo dumm aus der Wäsche schauen…“
Gut, ich bin nicht „alle“ und habe sicher mit meinem kleinen Feldversuch den Platzhirsch Google nicht in die Knie gezwungen, aber für gut eine Woche habe ich alles was nach Googlebot aussah einfach mit einem „403 Forbidden“ abblitzen lassen. Knapp eine Woche ist nichts weiter passiert, bis auf die Tatsache, daß einige meiner Beiträge, die sonst für Top-Platzierungen gut sind (Stichwort: Internetgeldbeutel) nicht in den Ergebnislisten auftauchten.
Gestern Abend aber hatte Google wohl die Faxen dicke und hat meine Putzlowitsch-Gurke und den Salat bei der Bildersuche durch die gleichwertigen Fotos von gerech.net auf Platz 1 ersetzt. Nun bin ich mal gespannt, wie lange das so bleibt.
Und ich muß auch zugeben, daß mein Versuch nicht ganz freiwillig war, denn aus einem für mich nicht nachvollziehbaren Grund ist der Googlebot in meine Bot-Falle gelatscht, bei der der Delinquent automatisch mit einem 403er bestraft wird. Und ich habe es erst heute Vormittag bemerkt. Komische Sache, denn eigentlich beachtet der Googlebot die Angaben in der robots.txt …