Das Ende der Google-Bildersuche steht kurz bevor, könnte man zumindest annehmen, wenn man die Schlagzeile „Google Bildersuche vor dem Aus?“ liest. Auch Heise berichtet nun darüber.
Wenn es tatsächlich so kommt, wäre das ein schwerer Schlag für mein Blog. Worüber soll ich denn noch schreiben, wenn nicht über meine bei Google gut platzierten Bilder oder die lustigsten Suchanfragen.
Bei dem oben verlinkten Artikel vom GoogleWatchBlog hat sich eine Diskussion entwickelt, ob es nun gut und richtig oder schlecht und falsch ist, daß Google einfach alle erreichbaren Inhalte des Webs indiziert und speichert. Als Beispiel wurde das sogenannte Opt-In- bzw. Opt-Out-Verfahren angeführt, welches z.B. im Bereich der E-Mail-Werbung verwendet wird. Vereinfacht gesagt, bedeutet Opt-In, daß ich dem Empfang z.B. eines News-Letters explizit zustimmen muß. Bei Opt-Out ist es hingegen so, daß ich die Sachen erstmal ungefragt zugeschickt bekomme und dann gegebenfalls der weiteren zusendung widersprechen kann. In Deutschland sind z.B. bestimmte Werbemaßnahmen nur nach erklärter oder mutmaßlicher Einwilligung zulässig.
Bezogen auf die Suchmaschinen gibt es zwei große Meinungs-Lager. Die einen sagen, die Suchmaschinen dürfen nicht einfach ungefragt Inhalte abgrasen, speichern und per Suchfunktion zugänglich machen. Die anderen meinen, wer Inhalte ins Web stellt muß davon ausgehen, das sie abgefragt, gespeichert und zugänglich gemacht werden. Wenn man das nicht will, muß man die Sachen halt per Paßwort schützen oder den Suchmaschinen-Robotern die Abfrage z.B. in der Roboter-Steuerdatei robots.txt verbieten. Seriöse Robots halten sich an die Anweisungen in dieser robots.txt-Datei.
Das Problem ist aber, daß die meisten Webseitenbetreiber nichts von den Möglichkeiten und Funktionen zur Steuerung der Webcrawler wissen.
Ich bin im Moment so ein wenig hin und her gerissen, welchem Lager ich mich anschließen soll. Einerseits halte ich die ungefragte Speicherung aller nur irgendwie greifbaren Daten eher für gefährlich und nicht erstrebenswert. Anderseits ist das Opt-Out Verfahren nicht nur im Internet sondern in vielen Lebensbereichen zumindest historisch gesehen die übliche Herangehensweise. Das kann auch gar nicht anders sein, weil zum Beginn einer neuen Entwicklung die möglichen Folgen noch nicht absehbar sind.
Prinzipiell darf man erstmal alles machen, Freiheit ist für viele Menschen das höchste Gut. Diese Freiheit alles zu tun und zu lassen was man will, wird aber durch Normen und Gesetze beschränkt und reglementiert. Anders herum ist das für die meisten kaum vorstellbar, also man darf überhaupt nichts und es werden nur bestimmte Sachen erlaubt. In der Praxis gibt oder gab es aber schon immer beide Varianten. Nehmen wir nur mal die Reisemöglichkeiten eines Deutschen zu DDR-Zeiten, als DDR-Bürger durfte man praktische nicht in andere Länder reisen, außer in ein paar sozialistische Bruderländer. Dem BRD-Bürger hingegen stand praktisch die Welt offen, von ein paar Ausnahmen vielleicht mal abgesehen.
Bei meiner Firewall habe ich für eingehenden Netzwerkverkehr eine Opt-In Strategie eingestellt, es kommt nichts rein, es sei denn, ich habe es explizit erlaubt. In der Gegenrichtung ist es genau anders herum, alles darf raus, nur ein paar Sachen verbiete ich.
Wenn für Suchmschinen schon immer ein „Alles ist verboten, ich darf nur einlesen, wenn es explizit erlaubt ist“ gegolten hätte, wären wir wahrscheinlich suchmaschinentechnisch noch auf dem Stand von vor 15 oder 20 Jahren. Ich hätte viele interessante Seiten überhaupt nicht entdeckt, weil deren Betreiber nicht wissen, daß sie Ihre Inhalte für die Suche erst freigeben müssen.
Andererseits wäre auch denkbar gewesen, das sich in der Anfangszeit der Websuche die Entwickler zusammengetan und auf einen Standard geeinigt hätten, der genau wie jetzt das Einlesen per Steuerdatei verbietet, dieses halt explizit erlauben würde. Das hätte man dann aber auch entsprechend bekannt machen und forcieren müssen.
So war es aber nicht und so muß man nun erstmal mit dem klarkommen, was sich im Laufe der Zeit entwickelt hat. Eine Lösung wäre entweder eine Umkehr der Vorgehensweise seitens der Suchmaschinenbetreiber oder eine stärkere Propagierung der Möglichkeiten, wie man die Suchmaschinen aussperren kann. Ich könnte mir sogar vorstellen, daß Webhoster für ihre Kunden erstmal standardmäßig eine robots.txt konfigurieren, die alles verbietet (und den Kunden natürlich darauf hinweisen), und der Nutzer dann dieses ausdrücklich ändern muß. So kann dann zumindest keiner mehr sagen, er hätte nichts gewußt.
Allerdings sehe ich dann auf die verschiedenen Foren einen großen Batzen Mehrarbeit zukommen, schon heute gibt es z.B. im WPD-Forum immer wieder Anfragen der Art “ Ich habe gestern mein WordPress-Blog online gestellt und werde immer noch nicht von Google gefunden!!!!! Warum?????“