uxzentrisch erörtert:
Einblicke in Googles Visual Search

Dieses CNBC Video bietet (ab Minute 3:30) einen zwar recht oberflächen, aber trotzdem interessanten Einblick in die Entwicklung einer »Visuellen Suche« bei Google.

Die Idee ist, dass Nutzer mit ihrem Android-Gerät ein Foto machen, das als Suchanfrage an Google gesendet wird. Als Ergebnis soll Google Details zum fotografierten Gegenstand liefern. Ein sehr interessantes Szenario, wenn man dabei an Sehenswürdigkeiten, Bücher, Tiere oder ähnliches denkt.

(Update 8. Juni 2010: An dieser Stelle sollte eigentlich das Video http://www.youtube.com/watch?v=i6tT3JGV1iY angezeigt werden. Das wurde jedoch leider von YouTube entfernt.)

Ein wichtiger Aspekt der Entwicklungsarbeit wird angesprochen: Eating one’s own dog food, also selbst als Nutzer mit dem eigenen Werkzeug leben und arbeiten.

Nett ist auch der kurze Einblick in eine Fokusgruppe, der in wenigen Sekunden sämtliche Klischees und Vorurteile zu dieser Methodik bestätigt.

Der Google-Mitarbeiter mit dem deutschen Akzent ist Hartmut Neven.

(via mobiflip.de)

Update: Etwas mehr Hintergrundinfos bietet ein Artikel bei eweek.com, der offenbar anlässlich der CNBC-Sendung vom 3. Dezember erschienen ist.

Update 2: Bei der Future of Search Konferenz in Paris hat Google den Dienst offenbar der breiteren Öffentlichkeit vorgestellt. Der eigentliche Name ist »Google Goggles«. Google hat ein offizielles Video dazu veröffentlicht:

Darin wird gezeigt, wie Goggles mit Bildern von Visitenkarten, Gemälden, Sehenswürdigkeiten und Geschäften/Lokalen umgeht. Letzteres soll wohl nahezu in Echtzeit funktionieren, erfordert also nicht mal ein Standbild. Und vielleicht die wichtigste Info für Android-Nutzer: Die Applikation ist ab sofort im Android-Market erhältlich.