SEO

Visual Search

Google hat vor kurzem bekannt gegeben, dass sie die visuelle Suche mit Hilfe von künstlicher Intelligenz (KI) weiter ausgebaut haben und weiter ausbauen werden. Was umfasst dies und bedeutet das genau? Ich habe mir dieses einmal angeschaut.

Vorab: Mit Google Lens ist es möglich per Handy über die Googlesuche ein Bild hochzuladen und dazu weitere Infos zu erhalten. Beispielsweise wo es dieses Produkt zu kaufen gibt (online), weitere und ähnliche Bilder dazu und vieles mehr - abhängig vom Bild. Ich selbst habe so schon mal ein Oberteil gekauft. Ich sah es online bei jemanden, speicherte das Bild, lud es hoch in der Rückwärtsbildersuche und erhielt so das Produktbild mit Verlinkung zum Online-Shop. Das dauerte wenige Minuten. Das ist schon ein paar Jahre her und seitdem ist meiner Meinung nach nicht mehr so viel Spannendes in diesem Bereich passiert. Doch dies ändert sich jetzt.

Visual Search mit KI

Unter dem Motto „You can see it, you can search it“ hat Google mit Hilfe von KI das neue Feature „Search your Screen“ entwickelt. Zunächst erstmal nur für Android. Dieses Feature ermöglicht es auf Websites und in Apps genau das bei Google zu suchen was gerade auf dem Bildschirm zu sehen ist.

Ein Beispiel:
Meine Freundin ist im Urlaub und sendet mir per WhatsApp ein Video von dem Platz wo sie gerade ist. Ich möchte mehr darüber wissen wie z. B. über ein bestimmtes Gebäude dort oder was auch immer auf dem Bild ist, das mich interessiert. Ich klicke nun auf die Home- oder Power-Taste meines Handys und aktiviere den Google Assistant, tippe dann auf das Objekt im Video, zu dem ich mehr erfahren möchte. Google Lens identifiziert es und zeigt mir Suchergebnisse dazu an.

Im Grunde ganz komfortabel, da ich nicht aus der App raus muss und das Prozedere mit Bild erstellen, hochladen und in die Google App Bildersuche gehen muss. Wie sich das dann datenschutzrechltich verhält, ist noch eine andere Frage. Auch, wenn Menschen auf dem Video sind und auch, inwieweit alle Infos auf dem Bild bei und wo bei Google gespeichert werden. Vermutlich wird es genauso sein wie zuvor mit dem Bilduplaod in der Rückwärtssuche von der Google App.

Multisearch

Ein weiteres neues Feature innerhalb Google Lens ist Multisearch. Hier können wir Bild und Text zur gleichen Zeit suchen. Das Feature ist weltweit auf allen Handys und Betriebssystemen verfügbar.

Wie funktioniert es? Ich öffne die Google-App, tippe auf das Lens-Kamerasymbol und wähle, wie gehabt, entweder ein Bild aus meinen Fotos vom Handy aus oder mache direkt eines. Ich lade es hoch, wische nach oben und tippe auf die Schaltfläche „+ Zu Ihrer Suche hinzufügen“, um zusätzlich Text hinzuzufügen. Im Anschluss kann ich eine eine Frage zu einem Objekt auf dem Bild stellen oder meine Suche nach Farbe, Marke oder einem visuellen Merkmal verfeinern.

Beispiel:
Ich habe mit meinem Handy einen Screenshot von einem grünen Kleidungstück gemacht und füge nun den Text "blau" hinzu, da ich es gern in einer anderen Farbe hätte. Schon werden mir Bilder entweder von dem Kleidungsstück, wenn vorhanden, in blau gezeigt oder von ähnlichen Produkten in blau.

Gleiches kann ich mit Möbeln machen. Ich sehe einen schönen runden Tisch, hätte diesen aber gern eckig. Ich lade das Bild hoch und schreibe dazu „rechteckig“.

Auch interessant: Ich habe ein Foto von einer Pflanze auf meinem Balkon und möchte Pflegehinweise dazu haben. Ich lade also das Foto hoch und wähle als Text „Pflegehinweise“. Schon bekomme ich die Infos (die hoffentlich stimmen ).

Google arbeitet hier mit ihrer KI namens MUM (Multitask Unified Model) daran, dieses Feature weiter zu verbessern, so dass die KI die Fragen oder Texte in Zukunft noch besser versteht und das Ergebnis für uns User besser ist.

Mulitsearch + Local

Ein weiteres neues Feature ist die lokalen Ergebnisse mit einzubinden. Ich lade also ein Bild hoch, z. B. einen schönen Stuhl, und füge hinzu „in der Nähe“. Google zeigt mir dann Läden in meiner Nähe an, die Stühle oder vielleicht sogar ähnliche Stühle verkaufen. So kann ich direkt vorbei gehen.

Mir gefällt dieses Feature besonders, da es so lokale Shops und Unternehmen unterstützt. Ich aber auch keine Zeit „verschwende“ in dem ich in Läden gehe, nach dem schönen Stuhl suche, aber diesen oder einen ähnlichen nicht finde. Ich bin eher ein Efficient-Shopper und bummel nicht so gerne, zumal ich in der Stadt schon seit Jahren nichts mehr finde. Weiß ich aber wo in der Nähe ein Laden ist, der das Angebot oder ein ähnliches hat, das ich suche, perfekt. So lerne ich nicht nur neue Shops kennen, auf die ich vielleicht sonst nicht gekommen wäre, sondern kann offline vor Ort die Läden unterstützen.

Dieses Feature gibt es aktuell nur in den USA, es soll aber in den nächsten Monaten zu uns ausgerollt werden.

SEO Tipp

Dies zeigt auch nochmal wieder, wie wichtig Bilder auf der Website sind. Passende Bilder, in der richtigen Auflösung und Größe, für Suchmaschinen optimiert.

Hier kommen wir auch wieder zu einem meiner Lieblingsaufgaben in SEO: die Search Experience (SXO). Usern, die über Suchmaschinen kommen, eine tolle Experience auf der Website zu bieten, visuell und inhaltlich, sind und bleiben unglaublich wichtig. Je nach Größe kann dies auch mit kleinen Videos sein.

Ready for the future?

Sie möchten hier mit dabei sein und sich gut aufstellen? Kontaktieren Sie mich gern und wir packen es an!

Autorin


Avatar

Mein Name ist Kathrin Siemokat und ich bin Gründerin und CEO von IOM Agency. Seit Anfang 2005 bin ich in SEO tätig, seit 2006 mache ich SEA. 2007 kamen Social & Co. dazu. Heute kenne ich mich in allen Digital-Kanälen aus und freue mich, seit über einem Jahrzehnt Unternehmen hier zu unterstützen. Meine große Liebe ist jedoch Search, deshalb widme ich mich in diesem Blog überwiegend Themen rund um SEM (SEO, SXO und SEA).