Das ist nicht mehr wirklich neu, denn schon seit April ist die Google-Funktion „Similar Images“ aus dem Google-Labor bekannt. Es wurde auch schon eigehende darüber berichtet und spekuliert (dort unbedingt das Video ansehen!). Ich habe da natürlich auch hin und wieder ein paar meiner Bilder getestet.
Gestolpert bin ich kürzlich über die Ergebnisse zu meinem Bild einer Aubergine (Screenshot). Wenn ich mir das Ergebnis ansehe gewinne ich den Eindruck, das hier tatsächlich die Ähnlichkeit aus dem Bild selbst und nicht irgendwelchen Stichwörtern abgehoben wird. Dabei ist es auch völlig egal, was als eigentliches Suchwort eingegeben wurde. Die Parameter der Abfrage-URL
http://similar-images.googlelabs.com/images?
können auch so aussehen:
q=_&qtype=similar&tbnid=5mi0q0lCyy_RrM
Hinter q= muß zwar irgendetwas stehen, was ist aber egal, es hat keinen Einfluß auf das angezeigte Ergebnis.
Der Parameter tbnid= ist übrigens die eindeutige Bild-ID, bestehend aus 13 Stellen von je 26 Groß- und Kleinbuchstaben, den Ziffern 0 bis 9 sowie dem Bindestrich und Unterstrich, abgeschlossen mit einem großen „M“. Damit ergeben sich pro Stelle 6 Bit, insgesamt also eine 78-Bit ID. Diese ID ist für dieselben Bilder immer gleich, auch wenn es davon mehrere byte-identische Kopien im Netz gibt.
Die ersten drei angezeigten Treffer ähnlicher Bilder sind ja noch brauchbar, wobei der erste ja das Bild selbst ist. Aber dann kommen erstmal seitenweise Schuhe und hier kann ich mir nicht vorstellen, daß da ein beschreibungs- oder sonstwie textbasierter Zusammenhang besteht. Allerdings passen besonders Form und auch Farbe ganz gut. Hier scheint also zumindest teilweise echte Bildverarbeitung am Werk zu sein, so wie bei der Sache mit den Farben meiner Meinung nach auch.
Allerdings lassen andere Ergebnisse auch wieder Zweifel aufkommen.
Naja, ich werde das mal weiter beobachten.