SEO

SEO – Ein Blick auf heute und morgen

Ich mache Suchmaschinenoptimierung seit Anfang 2005 und SEO ist schon immer im stetigen Wandel gewesen. In all den Jahren hat sich natürlich sehr viel getan, aber ich möchte hier jetzt gar nicht so weit ausholen. Heute möchte ich mich damit befassen, was aktuell wichtig ist und worauf wir uns einstellen sollten, um auch zukünftig erfolgreich mit SEO zu sein.

In diesem Artikel beschäftige ich mich auch mit:

• Künstliche Intelligenz (KI/AI) und Bots
• Backlinks und Gastbeiträge
• Googles Algorithmen
• Googles KI Angebote SGE und Bard
• Warum ein Blick auf das, was Bing macht, nicht unwesentlich ist
• Das neuste Update von Open AI: ChatGPT jetzt mit aktuellen Daten und Quellenangaben

Künstliche Intelligenz (KI/AI) und Bots

KI in Kombination mit SEO ist nichts neues. Wer Suchmaschinenoptimierung macht, weiß, das gibt es schon seit vielen Jahren und ist Standard. Doch erst seit ChatGPT und weiteren KI-Tools rückt das Thema breiter in den Fokus und ist stärker im Bewusstsein in der Masse vertreten.

Seitdem Microsoft in ihre Suchmaschine Bing ChatGPT integriert hat und Google SGE gelauncht hat, hat das Thema künstliche Intelligenz in der Suchmaschinenoptimierung mehr Raum eingenommen.

Die Suchmaschinen Bing und Google haben ihre Suchergebnisseite (SERP) so angepasst, dass auf Suchanfragen nicht nur die klassischen Suchergebnisse = zur Suchanfrage thematisch passende Webseiten untereinander angezeigt werden, sondern zeigen nun über diesen (Google) oder daneben (Bing) auch Antworten an, die über KI (AI) generiert wurden. Dies nennt sich auch generative AI. Die KI bedient sich zur Zusammenstellung ihrer Texte und Informationen an bereits vorhanden Informationen von Webseiten im Internet. Sie erstellt ihre Antworten in Sekundenschnelle und ermöglicht Suchmaschinennutzenden zusätzlich direkt Folgefragen an den Chatbot zu stellen. Google setzt dabei noch einen drauf und hat für die Generierung der Inhalte ihr Large Language Model mit einem Multitask Unified Model angereichert, das Informationen aus verschiedenen Formaten wie Webseiten, Bildern und Videos gleichzeitig verstehen kann.

Die AI-Inhalte auf der Suchergebnisseite hat für die Suchmaschinen den Vorteil, dass User länger auf ihrer Seite bleiben, statt, wie bisher, mit einem Klick zu einer anderen Webseite übergehen. Dadurch wird die SERP relevanter, vor allem wenn es um das Schalten von Werbung dort geht und den Wert von Google selbst, Usern mehr Infos und auch direkte wie weiterführende Antworten direkt selbst zu geben unabhängig von anderen Webseiten.

Aus SEO-Sicht ist das ziemlich ungünstig. Wenn User mehr mit der AI der Suchmaschinen interagieren und ihr Thema direkt dort beantwortet wird anstatt auf eine Website zu klicken, verlieren die Webseiten Traffic (Besucher), was sich wiederum auf Anfragen, Verkäufe, Umsatz etc. auswirkt.

Des Weiteren sehen User vielleicht nicht direkt, dass die Antworten der AI eine Zusammenstellung aus Informationen unterschiedlicher Webseiten ist. Nicht die AI hat das ganze Wissen, sondern sie bedient sich an dem bereits vorhandenen Wissen. Selbst wenn Usern dies bewusst ist, kann es dennoch sein, dass sie ihre Antwort trotzdem bereits erhalten ohne auf eine Website zu klicken.

So ist es z. B. auch mit ChatGPT. Der Bot selbst hat nicht das Wissen, sondern bedient sich an Wissen, das es sich aus bereits vorhandenen Quellen zieht. Das Wissen kommt von Anderen.

Genau da liegt aktuell auch das Problem und das ist auch der Grund, weshalb diverse Webseiten ihre Inhalte nun für GPT Bots sperren. Damit schützen sie einerseits den Missbrauch ihres geistigen Eigentums durch AI Tools, andererseits sind sie im AI-Bereich der Suchmaschinen wiederum auch nicht sichtbar.

Mein geschätzter Kollege, Kevin Indig, hat neulich einen ausführlichen Artikel dazu geschrieben. Dabei hat er 1.000 Webseiten analysiert und festgestellt, dass aktuell 12% davon GPT Bots bereits für ihre Website sperren. Er hat die Webseiten in verschiedene Kategorien eingeteilt und prognostiziert, dass es bald 84% sein werden, vor allem in diesen Bereichen:

• Verlage
• Marktplätze
• Contentplattformen
• Wörterbücher
• Bildungswebseiten/-plattformen
• Übersetzungsprogramme

Die Kollegen der Website Originality.ai gehen noch weiter und geben Websites konkret an. Dabei unterteilten sie diese in deren Größe und Bekanntheit:

Top Websites:
• Pinterest
• Amazon
• Quora
• Indeed

Größte Medien-/Verlagseiten:
• New York Times
• The Guardian
• CNN
• USA Today
• Business Insider
• Reuters
• Washington Post
• NPR
• CBS
• NBC
• Bloomberg
• CNBC
• ESPN

Die Top 6 weltweit größten Websites, die GPT Bots zuerst blockierten:
• Wikihow.com – seit 12. Aug. 2023
• New York Times – seit 17. Aug. 2023
• Amazon.com – seit 17. Aug. 2023
• Shutterstock.com – seit 21. Aug. 2023
• CNN.com – seit 22. Aug. 2023
• Quora.com – seit 22. Aug. 2023

AI Bots für die eigene Website sperren?

Es bleibt nun also die Frage, macht es Sinn die eigene Website für diese Bots zu sperren und zu verhindern, dass diese die Inhalte meiner Website nutzen? Das ist eine Grundsatzfrage. Denn ChatGPT zum Beispiel lässt sich per API in andere Tools einbinden. Es geht also nicht nur darum bei Google SGE, der Bing Suchmaschine und bei ChatGPT selbst das Benutzen meiner eigenen Inhalte zu unterbinden, sondern auch in anderen Tools. Bei Wordpress gibt es Plugins, die eine ChatGPT-Integration anbieten, wodurch Wordpress-Nutzende damit bereits kostenlos zügig Inhalte erstellen und theoretisch meine eigenen Inhalte von ihnen via GPT verwendet werden können.

Wir haben mit einigen Kunden bereits darüber gesprochen und die Vor- und Nachteile eruiert. Tatsächlich lässt sich nicht allgemein sagen, dass einen Sperrung sinnvoll ist. Es kommt auf die Ziele, Strategie und darauf an, wie Sie sich aufstellen wollen. Gerne berate ich Sie hier unverbindlich, aber im Detail. Bei Interesse schreiben Sie mir gern und wir loten das gemeinsam aus.

Worauf ist heute bei SEO zu achten, um auch morgen erfolgreich zu sein?

Wenn sich eines seit 2005 nicht geändert hat, dann ist es Content. Dieser ist nach wie vor mit das Wichtigste für eine Website, das Wichtigste für die Webseitenbesuchenden, aber auch für die Suchmaschinen, um Seiten Ihrer Website zu bestimmten Suchanfragen ein Ranking zu geben.


Schon vor 15 Jahren hieß es „Content ist King“ und ist bis heute gültig. Denn wir wollen Personen, die auf unsere Website kommen, gute und ausreichende Informationen bieten zu dem was wir tun, anbieten und wer wir sind. Je mehr Infos wir bereitstellen, desto mehr Informationsgehalt decken wir ab. Das hilft unseren Websitebesuchenden genauso wie den Suchmaschinen.

Aber Webseiteninhalte allein machen nicht das Ranking aus. Damit der Suchmaschinenbot Ihre Inhalte richtig verarbeiten und interpretieren kann, sind diverse technische Maßnahmen wichtig. Suchmaschinenbots haben dabei unterschiedliche technische Anforderungen und je besser eine Website diese erfüllt, desto hilfreicher. Das nennt sich OnSite Optimierung.

In Zeiten von AI und die sich ständig verbessernde Fähigkeit der Suchmaschinen Webseiteninhalte besser zu verstehen, wurde hin und wieder die Frage gestellt, wie wichtig Technical SEO noch ist. Vor allem nachdem von Google technische Aspekte aus dem Rankingsystem in den Bereich der Rankingsignale verschoben wurden.

In der Suchmaschinenoptimierung ist alles, was die Rankingsysteme betrifft, sehr wichtig für gute Rankings. Darüber hinaus gibt es auch die Rankingsignale, die ebenfalls wichtig sind, aber anders und leichter gewichtet werden.

John Mueller ist Senior Search Analyst bei Google, des Weiteren ist er Autor auf dem Search Central Blog von Google. Auf X (ehemals Twitter) nimmt er immer wieder mal Stellung zu verschiedenen SEO Themen. So kam dort neulich das Thema auf, was nun mit der Relevanz von Technical SEO ist. Nachdem ein User namens Yiğit Konur dort postete, dass technisches SEO von Tag zu Tag unwichtiger wird und sich der Schwerpunkt von SEO auf die Erstellung und Optimierung hochwertiger Inhalte verlagern sollte, sofern keine wesentlichen technischen Probleme auftreten, antwortete ihm John Mueller, dass technisches SEO nicht unwichtiger oder gar verschwinden wird. Es ist weiterhin die Grundlage für alles, was im offenen Web erstellt worden ist.

  • Text Hover

Danny Sullivan, ebenfalls bei Google und zuständig dafür die Funktionsweise der Google-Suche für die Öffentlichkeit verständlicher zu machen, sowie ebenfalls Autor des Google Search Central Blogs, sagte dazu, die Entfernung dieser aus dem grundlegenden Rankingsystem zu den Rankingsignalen heißt nicht, dass die Nutzererfahrung mit der Seite nicht mehr so wichtig ist oder dass Webseitenbetreibende Core Web Vitals oder die Nutzerfreundlichkeit auf mobilen Endgeräten ignorieren sollten. Im Gegenteil, es heißt, wenn Sie mit den zentralen Ranking-Systemen der Google-Suche erfolgreich sein wollen, sollten Sie diese und andere Aspekte berücksichtigen. 

Was gehört zum technischen SEO?

Hier fällt alles rein was zum einen die Suchmaschinen technisch benötigen, um eine Website gut auslesen zu können, zum anderen sie technisch so gut aufgebaut sein muss, dass sie für Webseitenbesuchende problemlos erreichbar und entsprechend strukturiert ist.

Ganz grob gesagt sind die Oberthemen:


• Crawling

• Indexierung

• Rendering

• Seitenarchitektur

• URL-Strukturen

• Weiterleitungen

• Diverse Tags

• Dateigrößen

• Verlinkungen

• Sicherheit

• Ladezeiten

• Strukturierte Daten

• Fehlerseiten

• Doppelte Inhalte

• Beachtung bei Mehrsprachigkeit


Jeder dieser Bereiche hat noch diverse Unternehmen, das würde hier jedoch den Rahmen sprengen.

SEO Klickrate

Der erste Kontakt, den Webseitenbetreibende in der Suchmaschine mit einer Person haben, ist das Snippet. Das ist der Seitentitel und die Meta-Description, die jede Seite einer Website im Quellcode hat. Das Snippet ist das, was eine Suchmaschine als Suchergebnis im Index anzeigt.

Umso wichtiger ist es, dass das Snippet Usern angibt, was diese bei dem Klick darauf auf unserer Seite finden. Je besser wir dieses formulieren, desto höher die Wahrscheinlichkeit des Klicks. Je besser das Snippet wiedergibt, was auf der Seite ist, desto höher auch die Wahrscheinlichkeit, dass User nicht wieder zurück zu Google kehren, sondern auf unserer Website bleiben und sich weiter informieren bis hin zur Kontaktaufnahme oder sogar zum Kauf.

Google misst die Klicks nicht nur bei ihren Anzeigen, sondern auch die auf ein Snippet und kann ebenfalls erkennen, wenn User wieder zurück kommen (Bounce Rate). Sie haben bereits im Jahr 2015 RankBrain entwickelt, ein spezieller KI-Algorithmus, den Google zum Sortieren der Suchergebnisse nutzt. Dieser hilft Google auch dabei, Suchanfragen zu verarbeiten und zu verstehen. Ein Teil von RankBrains Aufgabe ist es zu untersuchen und zu verstehen, wie die User mit den Suchergebnissen interagieren. Daher ist die Klickrate und Snippet-Optimierung für SEO ebenfalls wichtig.

Weitere SEO Bereiche

In die OnSite Optimierung fallen neben den bereits genannten noch viele weitere Bereiche rein. Top Level zusammengefasst sind das auch noch:

• Keywordstrategien
• Interne Verlinkung
• Externe Verlinkung
• Diverse Meta-Daten
• Bilder und Videos
• Contenttiefe
• Contentstrukturierung
• Contentaktualisierungen

Backlinks und Gastbeiträge

Was sind Backlinks und was steckt dahinter?


Backlinks sind Links, die von einer Website zu einer anderen verlinken. Beispiel: Website A verlinkt zu Website B, dann ist dieser Link für Website B ein Backlink.

Backlinks galten lange als wichtiger, teilweise sogar als wichtigster, Rankingfaktor, da sie für das Rankingsystem der Suchmaschinen wie eine Empfehlung gewertet werden. Warum sonst sollte eine Website zu einer anderen verlinken, wenn sie diese nicht erwähnens- und somit empfehlenswert findet. Das Rankingsystem hatte somit auch darauf geschaut, wie viele Backlinks („Empfehlungen“) eine Website hat und die Relevanz dieser Website an der Summe der Backlinks bewertet. Je mehr Backlinks, desto besser. Dabei gilt noch der Unterschied, wie viele unterschiedliche Domains zu meiner Website verlinken. Denn im Grunde kann Ihre Website auch mehrere Links von derselben Website haben. Dadurch lässt sich die Anzahl der Backlinks zwar erhöhen, wenn Sie jedoch 15 Backlinks von Website A haben, wird dies weniger stark gewichtet, als wenn Sie 15 Backlinks von 15 unterschiedlichen Websites (Domains) haben. Das macht Sinn. Wenn z. B. in Ihrer Nachbarschaft ein Nachbar den Bäcker um die Ecke 15x empfiehlt oder 15 Nachbarn den Bäcker 1x empfehlen, wirkt das schon anders.


Es gibt verschiedene Methoden, um an Backlinks zu kommen. Es hatte sich bereits vor über 10 Jahren ein ganz eigenes Businessmodell dazu gebildet. Es entstanden Firmen oder Agenturen, die sich darauf spezialisiert hatten Backlinks anzubieten. Das Aufbauen von Backlinks nennt sich auch Linkbuilding. Viele Online Marketing Agenturen nahmen den Bereich Linkbuilding ebenfalls mit in ihr Leistungsportfolio auf. Backlinks wurden dann gegen Bezahlung auf einer (thematisch) passenden Website zu einer anderen Website gesetzt. Es gab sogar Firmen, die Backlinks nur zur Miete anboten. Zahlt man nicht mehr, ist der Link weg. Hier wurde sehr viel Geld mit Linkbuilding verdient.


Google hat dies natürlich irgendwann mitbekommen und war stetig dran, ihren Algorithmus so zu trainieren, dass dies erkannt und derartige Backlinks somit weniger oder gar nicht mehr gewichtet werden. So gesehen musste sich der Bereich Linkbuilding, dieser nennt sich auch OffSite Optimierung, etwas einfallen lassen, da Backlinks immer noch einen wichtiger Rankingfaktor darstellten.


En Detail möchte ich das hier jetzt nicht ausführen, da dieses Thema so umfangreich ist, dass es eine eigene Reihe an Blogartikeln nötig macht, um es vollumfänglich zu thematisieren.

Gastbeiträge

Was sich jedoch über viele Jahre etabliert hat, sind Gastbeiträge. A schreibt auf der Website oder im Blog von B einen Beitrag und verlinkt darin zur eigenen Website. Das hat für A den Vorteil einen Backlink und zusätzliche Reichweite zu bekommen und B hat weiteren/neuen Inhalt auf der eigenen Website. WinWin also.

Wenn sich das im Rahmen hält, ist das auch ok. Aber auch dieser Bereich hat größere Formen angenommen und plötzlich gab es viele Vermittler oder Agenturen für Gastbeiträge, es bildete sich hier ein ganz eigenes Business wieder mit dem Ziel Backlinks aufzubauen.


Vermutlich haben Sie auch schon die Erfahrung gemacht oder kennen eine Person, die von entsprechenden Anbietern angeschrieben und nach Interesse an Gastbeiträgen gefragt wurde oder auch direkt Angebote dazu erhalten hat. Hinzu kommt, dass die Angebote auch nicht immer thematisch zur eigenen Website passen oder es sich um Webseiten handelt, die speziell dafür erstellt worden. Hier gibt es sehr viele Beispiele.


Google ist sich dessen auch bewusst und so hatte John Mueller mal auf X (Twitter) gepostet, dass Google Gastbeiträge für Links nicht nur missbilligt, sondern diese in den letzten Jahren auch abgewertet hat.


Er sagte auch, dass Google über viele Jahre Daten dazu gesammelt hat, um ihren Algorithmus so zu trainieren, dass dieser Links zu Gastbeiträgen erkennt und nicht mehr bewertet mit der Folge, dass sie einer Website nicht mehr zu einem besseren Ranking verhelfen.


Des Weiteren ist es mittlerweile eine Richtlinie, Gastbeiträge als „sponsored“ zu kennzeichnen, sowie den Backlink auf “nofollow“ zu setzen.


Es gibt „follow“ und „nofollow“ Verlinkungen, die einem Bot mitteilen, ob er beim Crawlen einer einzelnen Seite dem Link folgen oder nicht folgen soll. Viele Content Management Systeme setzen Links automatisch auf nofollow, so dass es einen extra Schritt bedarf, einen Backlink auf follow zu setzen. Diesen zusätzlichen Schritte bezeichnet Google als unnatürlich, da es dann aktiv beabsichtigt ist. Unnatürliche externe Links werden negativ bewertet.

Abstrafungen

Wenn Google erkennt, dass ein Backlink gekauft wurde, bewerten sie die Website negativ bis hin zur Abstrafung. Das bedeutet, die Website verliert entweder an Rankings oder, je nach Umfang, verschwindet als Strafe ganz aus dem Google-Index.

Bei Gastbeiträgen gibt es seitens Google keine Abstrafung, aber auch keine Aufwertung der Website. John Mueller hielt sich zu dem Thema im Detail bedeckt. Er teilte nur mit, dass Backlinks aus Gastbeiträgen nicht positiv bewertet werden und Suchmaschinenoptimierende ihre Zeit besser in andere SEO Maßnahmen investieren sollten.

Sinn und Zweck

Das bedeutet natürlich nicht, dass Sie Gastbeiträge nicht mehr machen sollen, nur weil der Backlink daraus seitens Google nicht aufwertend für Ihr Ranking eingestuft wird. Gastbeiträge haben neben der Verlinkung auch Vorteile wie zusätzliche Reichweite und Branding.

Googles Algorithmen

Was sind Google Algorithmen?

Die Algorithmen von Google sind ein komplexes System, das dazu dient, auf eine Suchanfrage Daten aus ihrem Suchindex abzurufen und die bestmöglichen Ergebnisse für diese Suchanfrage zu liefern. Google verwendet dabei eine Kombination aus Algorithmen und zahlreichen Ranking-Faktoren, um Webseiten nach Relevanz sortiert auf ihren Suchmaschinen-Ergebnisseiten (SERP) anzuzeigen.

In den Anfangsjahren hat Google eher eine Handvoll Aktualisierungen seiner Algorithmen vorgenommen. Mittlerweile nimmt Google jedes Jahr tausende von Änderungen vor.


Die meisten dieser Aktualisierungen sind so geringfügig, dass sie völlig unbemerkt bleiben. In den letzten Jahren hat sich die Anzahl an Updates dieses Algorithmus erhöht. Updates am Kern, sogenannte Core Updates, finden ca. alle 3 Monate statt. Diese haben meist einen stärkeren Effekt auf Webseiten, da hier das Rankingsystem an sich angepasst wird. Darüber hinaus gibt es auch Aktualisierungen im Bereich der Signale.


Rankingsysteme sind komplexer – in diesem Fall zieht Google mehrere Signale heran (z. B. vom Crawlen und Indexieren von Daten) und bewertet sie. Rankingsysteme sind lt. Google zudem stabiler als Signale.


Google dokumentiert jedes Update an ihrem Algorithmus mit weiteren Infos dazu, dies ist öffentlich einsehbar (Link).


Ständige Weiterentwicklung, Hinzunahme und Entfernen von Rankingfaktoren


Da sich nicht nur die technischen Möglichkeiten weiterentwickeln und neue dazu kommen, sondern auch unser Suchverhalten, unsere Ansprüche und Erwartungen sich ändern, müssen die Suchmaschinen ihre Rankingsysteme stetig anpassen, ausbauen oder verändern.

Google experimentiert auch viel und so kann es sein, dass bestimmte Dinge, die letztes Quartal noch wichtig für SEO waren, in diesem nicht mehr so relevant sind, wie z. B. die Core Web Vitals in der Search Console, HTTPS, oder die mehrfache Verwendung der H1, Nutzerfreundlichkeit auf mobilen Endgeräten, Position des Keywords in der URL usw.

Daher ist es unglaublich wichtig, immer up to date zu bleiben.

Googles neue Suchergebnisseite

Google SGE

Im Mai 2023 hat Google sich neu aufgestellt und in den USA ihre neue Funktion „Search Generative Experience“ (SGE) als open Beta eingeführt.

Hierbei werden in Sekundenschnelle passend zur Suchanfrage durch künstliche Intelligenz Antworten oder Informationen generiert. Dabei hat Google für die Generierung der Inhalte ihr Large Language Model mit einem Multitask Unified Model angereichert, das Informationen aus verschiedenen Formaten wie Webseiten, Bildern und Videos gleichzeitig verstehen kann.


Durch SGE hat Google außerdem die Suchergebnisseite neu gestaltet (Screenshots s. hier). Die organischen Suchergebnisse fallen unter das KI-Feld. In das KI-Feld sind Snapshots von Webseiten integriert von denen sich das Sprachmodell die Informationen gezogen hat. Diese Entwicklung ist ein großer Meilenstein in der Geschichte von Google.


Um in der neuen Version von Google gute Rankings zu erzielen und auch in den Snapshots berücksichtigt zu werden, ist die Optimierung und Anreicherung von hochwertigen Inhalten und Bildern in Verbindung mit umfassender Suchmaschinenoptimierung maßgebend.


Die neue Google-Seite ist aktuell in den USA, Japan und Indien verfügbar.

Googles Chatbot Bard

Google hat analog zu Bings Chatbot einen eigenen entwickelt. Dieser nennt sich Bard und ist mit einem Google-Account nutzbar. Bard ist in 40 Sprachen und 230 Ländern verfügbar, hat aber inhaltlich noch Schwachstellen. 

Auch ist aktuell bekannt geworden, dass Chats von Usern mit Bard öffentlich sichtbar sind. Google hat bisher verpasst die Inhalte von der Bard-Website für Suchmaschinen auszuschließen und somit sind die Chats nun im Index. Google wird dies sicher zügig korrigieren, mit Stand heute sind die Inhalte noch öffentlich.

Wenn Sie site:https://bard.google.com/share/ in die Google-Suche eingeben, sehen sie die verschiedenen Chats. Diese sind in unterschiedlichen Sprachen, da alle Chats im Index sind und Bard auf vielen Sprachen verfügbar ist. Aber wenn Sie etwas runterscrollen, sehen Sie auch deutsche.

Ob und zu welchen Suchanfragen die Chats angezeigt werden, ist derzeit nicht bekannt. Aber es reicht, dass diese über den o. g. Link zu sehen sind.

Google möchte Bard irgendwann in SGE integrieren, derzeit laufen beide Produkte noch getrennt. Während Bard offiziell gelauncht und verfügbar ist, ist SGE noch open Beta und nur für ein paar Länder freigeschaltet.

Perspectives

Hier blendet Google zu bestimmten Suchanfragen auch selbsterstellte Videos von Menschen wie Sie und ich ein. Diese Videos sollen Usern noch schneller Einblicke und auch Erfahrungswerte von Anderen geben.
  • Text Hover

Wie Perspectives funktioniert sehen Sie unter https://blog.google/products/search/google-search-perspectives.

SynthID

Ende August hat Google ihr neues Tool „SynthID“ vorgestellt. Dieses identifiziert zum einen KI-generierte Bilder anhand für das menschliche Auge nicht wahrnehmbarer Wasserzeichen. Zum anderen ermöglicht es auch die Erstellung von KI-Bildern. Generell soll es einen verantwortungsvollen Umgang mit der durch künstliche Intelligenz erzeugten Fotos und Kunstwerke ermöglichen, um Transparenz in diesem Bereich zu bieten. SynthID verwendet dabei zwei Deep Learning Modelle, eines zum Markieren und eines zum Identifizieren von Wasserzeichen.

SynthID ist aktuell für ausgewählte Google Cloud-Kunden verfügbar und stellt einen ersten Schritt zur Identifizierung von KI-generierten Inhalten dar. Es bettet ein digitales Wasserzeichen direkt in die Pixel eines Bildes ein, für das menschliche Auge nicht wahrnehmbar, aber zur Identifizierung erkennbar.


Die Wasserzeichen sind so konzipiert, dass die Bildqualität nicht beeinträchtigt wird und sie auch nach Änderungen wie dem Hinzufügen von Filtern, dem Ändern von Farben und dem Speichern mit verschiedenen Komprimierungsschemata (z. B. jpeg) erkennbar bleibt.


Hier können Sie sehen wie es funktioniert:


Warum ist ein Blick auf das, was Bing macht, nicht unwesentlich?

Bing Chat

Als erste Suchmaschine hat Bing ein Sprachmodell integriert. Hierbei handelt es sich um ChatGPT, dieses ist seit April 2023 in der Suchmaschine eingebunden.

Verfügbar ist des über Microsofts Browser Edge, sowie in der Bing App und als Erweiterung in Googles Browser Chrome. Das schaut dann so aus:

 

  • Text Hover


Des Weiteren wird Apple in ihrem Browser Safari demnächst eine Erweiterung für den Bing Chat zur Verfügung stellen.


Bing hat somit als erste Suchmaschine Usern die Möglichkeit geboten, passend zu ihrer Suchanfrage durch KI-generierte Informationen zu erhalten und direkt in der Suchmaschine mit der KI einen Chat zu starten, um tiefer in das gesuchte Thema einzusteigen.


Auch optisch hat Bing dies anders gelöst als Google. So befinden sich die KI-Inhalte rechts (graues Feld) neben den organischen Suchergebnissen und legen sich nicht darüber wie bei Google. Dadurch sind die SEO-Ergebnisse weiterhin gut für User sichtbar und werden nicht nach unten verdrängt wie bei Google:


  • Text Hover
  • Text Hover

Bing Webmaster Tools

Neben der Google Search Console lohnt es sich für Webseitenbetreibende erfahrungsgemäß auch die Website für die Bing Webmaster Tools anzumelden und hier zusätzliche Infos zu Website-Performance, Keywords und Backlinks zu erhalten. Dieses ist ebenfalls kostenlos.

Bing und indexnow

„indexnow“ bietet die Möglichkeit, Suchmaschinen sofort über neueste Inhaltsänderungen auf Ihrer Website zu informieren. Es ist ein einfaches Ping-Protokoll, mit dessen Hilfe Suchmaschinen erfahren sollen, dass eine URL und ihr Inhalt hinzugefügt, aktualisiert oder gelöscht wurden, so dass sie diese Änderung schnell in ihren Suchergebnissen widerspiegeln können.

Bing orientiert sich daran, Google bisher noch nicht. Bei Google ist immer noch die beste Möglichkeit die URL in der Search Console unter „Seiten“ neu einzugeben und eine erneute Indexierung zu beantragen. Mittlerweile ist Google hier auch recht schnell und tut dies innerhalb von ein paar Tagen (letztes Jahr noch konnte dies Wochen dauern).


Verfügbarkeit oder Ausschluss von eigenen Websiteinhalten in Bing Chat

Microsoft hat letzte Woche bekannt gegeben, das Webseitenbetreibende zukünftig die Möglichkeit haben mit den tags NOCACHE und NOARCHIVE Bing zu verbieten ihre Webseiteninhalte im Bing Chat zu verwenden (Quelle).

Die beiden tags haben folgende Rollen:


NOCACHE: Im Bing Chat werden nur URL/Snippet/Titel angezeigt


NOARCHIVE: Die Inhalte der Website werden nicht in Bing-Chat-Antworten einbezogen und in den Antworten nicht verlinkt. 

Warum ist der Blick auf Bing wichtig?

Als Mitbewerber von Google ist Bing in einigen Bereichen schneller in der Umsetzung von Funktionen (s. Bing Chat) und geht schneller auf Bereiche ein, die brisant sind, wie z. B. die Nutzung unserer Webseiteninhalte in GPT Bots. Damit pusht Bing diese Entwicklung meiner Meinung nach mehr und kann auch Druck aufbauen, sowie zeigen, es ist möglich Dinge schnell und gut umzusetzen. Google lässt sich erfahrungsgemäß mehr Zeit.

Auch wenn der Marktanteil von Google viel höher ist als der von Bing, ist es trotzdem gut und auch wichtig zu sehen, dass Dinge auch von Anderen als Google nicht nur umgesetzt, sondern auch schneller und teilweise besser umgesetzt werden können.


Einen guten Vergleich beider Suchmaschinen hat SEMrush vor kurzem veröffentlicht (Link).

ChatGPT seit gestern noch konkurrenzfähiger

Bis gestern war die Aktualität der Datenbasis von ChatGPT in der Web- und App-Version über Open AI bis September 2021 begrenzt. Bing hob sich davon ab und gab an, dass ihre GPT Integration aktuell und schneller ist. (Quelle). Darüber hinaus können Bing-User die Quellen sehen, auf die sich das Sprachmodell bezieht, so dass sie selbst überprüfen können, ob die Ergebnisse plausibel und wahr sind. 


Gestern hat Open AI jedoch mitgeteilt, dass ChatGPT jetzt im Internet surfen kann, um aktuelle und verlässliche Informationen bereitzustellen und gibt außerdem die direkten Links zu den Quellen an, auf das es sich bei der Erstellung der Texte bezieht. Es ist somit nicht mehr auf Daten bis September 2021 beschränkt. Als Browsing-Lösung nutzt ChatGPT, Sie ahnen es vielleicht, die Bing Suchmaschine. Diese Funktion ist ab sofort für ChatGPTs Plus- und Enterprise-Nutzer verfügbar und wird bald für alle Nutzer zur Verfügung gestellt. Aktivieren lässt sich die neue Funktion einfach in der Version GPT-4 per Klick auf „Mit Bing suchen“.


Zu den neusten Updates des Tools gehört auch die Berücksichtigung der robots.txt, damit Websitebetreibende steuern können, wie ChatGPT mit ihren Inhalten interagiert bzw. ob es diese verwenden darf.


Das ist ein neuer Meilenstein. Die Kooperation mit Microsoft/Bing und die Power der beiden wird hier zusätzlich gestärkt.


Fazit

KI Bots und Tools sind weiter auf dem Vormarsch. Derzeit fehlt es an echten Regulierungen, die zudem auch kontrolliert und überwacht werden. Ich habe aktuell das Gefühl wir befinden uns auf einem großen Spielplatz wo alle machen, worauf sie Lust haben ohne ernsthafte Konsequenzen.

Erste große Webseiten sind selbst aktiv geworden und haben in der Datei robots.txt ihre Inhalte für GPT gesperrt. Hier ein Beispiel für den Befehl, den Sie in Ihre robots.txt Datei einbinden können:

User-agent: GPTBot
Disallow: /

Es ist ein erster Schritt. Doch ob sich die Bots wirklich daran halten und was passiert, wenn nicht, ist bisher weder fest geregelt noch per Gesetz bestimmt.

Eine Blockierung bedeutet aber auch, bei Google SGE, im Bing Chat, bei ChatGPT selbst oder entsprechenden Integrationen nicht sichtbar zu sein. Wer zudem nicht in den top Rankings der Suchmaschinen vertreten ist, ist somit auch nicht im KI-Bereich derer sichtbar und dementsprechend nicht auf Seite 1 zu finden (Ads ausgeschlossen). Der KI-Bereich wäre eventuell noch eine kostenlose Option, wenn es für die eigene Website an top Rankings im organischen Bereich fehlt.

Ein gutes Ranking in Suchmaschinen zu erreichen und dauerhaft zu halten, bedarf einer sehr guten und kontinuierlichen Suchmaschinenoptimierung. 
Dazu gehört die OnSite Optimierung, technisches SEO und auch die Klickrate der eigenen Snippets ist zu beachten. Stetige Weiterbildung und das Beobachten der Entwicklungen und Rankingkriterien der Suchmaschinen sind elementar.

Leider gibt es in SEO keine offizielle Ausbildung, wodurch manche Unternehmen denken, dies kann auch ein Werkstudent oder Junior übernehmen, wenn er sich nur in das Thema einliest. Dem ist nicht so und mittelfristig endet das in Rankingverlusten und Umsatzeinbußen durch schlechtes SEO oder eben erst gar keine Erreichung von SEO Erfolg. Daher ist mir immer noch nicht klar, wie Unternehmen auf die Idee kommen, diesen so wichtigen Bereich an unerfahrene Personen zu übertragen oder auch wie Leute meinen, sie können SEO, wenn sie genug Blogs lesen und ein Tool dazu haben.

Ein Gedankenspiel: Würde es für SEO einer zwei- bis dreijähirgen Ausbildung oder gar einem Studium bedürfen, wie bei den meisten Berufen, würden Unternehmen dann tatsächlich das SEO an Werkstudenten oder Berufseinsteiger geben? Würden Personen sagen, sie können SEO, obwohl sie darin keine Ausbildung haben?

Genau da liegt der Denkfehler bei vielen. SEO braucht Erfahrung wie Wissen und SEO kostet Geld. Wer dies in unerfahrene Hände gibt oder nur nach dem günstigsten Preis geht, hat es nicht verstanden.

Es gibt gut 200 SEO-Rankingfaktoren, die Einfluss auf das Ranking haben. Diese ändern sich, verschwinden und es kommen andere dazu. Sich hier kontinuierlich weiterzubilden und am Ball zu bleiben ist essenziell.

Zum Thema Backlinks kommen immer wieder Gastbeiträge in den Fokus. Google hat bereits mitgeteilt, dass Links aus Gastbeiträgen keinen positiven Einfluss auf das Ranking haben. Für Brand Building und Reichweite können diese jedoch in Betracht gezogen werden. Wer damit rein auf Linkbuilding und bessere SEO-Rankings abzielt, wird hier nicht erfolgreich sein.

Google optimiert ihren Algorithmus stetig. Es gibt Updates am Kern des Algorithmus, dem Rankingsystem an sich, welche ca. alle 3 Monate erfolgen und meist größere Auswirkungen auf die Rankings haben. Doch gibt es auch Updates an den Rankingsignalen, dessen Effekte eher schwächer sind.

Wann und in welcher Form ein Update stattfindet, kündigt Google u. a. auf X (Twitter) an, sowie in ihrem Blog. Es gibt außerdem eine Dokumentation dieser mit dem aktuellen Stand des Updates (Start und Ende) sowie weiteren Infos dazu.

Wie beim Algorithmus optimiert Google auch ihre eigene Seite. Die seit vielen Jahren größte Änderung hat im Mai diesen Jahres begonnen. Die Suchergebnisseite wurde umgestaltet und enthält nun auch KI-Inhalte mit weiterführenden Follow-ups direkt auf der Seite. Derzeit ist dies immer noch in open Beta und bei uns in Europa noch nicht verfügbar. Über VPN und einem entsprechenden Google-Account lässt sich dieses aber nutzen.

Mit ihrem eigenen Chatbot, Bard, hat Google derzeit Probleme. Die privaten Chats von Usern mit dem Chatbot sind aktuell in der Google-Suche indexiert und somit für alle sichtbar.

Bing, Microsofts Suchmaschine, ist hier bereits weiter. Im April wurde hier GPT integriert und bietet realtime Daten, da diese aus bestehenden, im Internet verfügbaren Webseiten herangezogen werden. Des Weiteren ist die Bing-Suche nun auch direkt in der Webversion und App von OpenAI verfügbar. Bis gestern war hier die Datenaktualität bis September 2021 begrenzt. Mit dem neuesten Update von OpenAI ist das nun anders. Auch hier sind die Daten jetzt aktuell und es werden außerdem die Quellen angegeben, was bisher ebenfalls fehlte.

Mit den Bing Webmaster Tools bietet Microsoft ein kostenloses Tool die eigene Website durch die Augen des Suchmaschinenbots zu sehen, Performancedaten zu erhalten, Infos zu Links, Keywords und vielem mehr, was wichtig ist für SEO.

Des Weiteren verarbeitet Bing das Protokoll indexnow, mit dem neue Inhalte der eigenen Website schneller an Suchmaschinen übermittelt werden können und bietet mit den tags nocache und noarchive Webseitenbetreibenden die Möglichkeit zu kontrollieren, ob die Inhalte ihrer Website für ihren GPT Bot verfügbar oder gesperrt sein sollen.

Bing ist in einigen Bereichen schneller als Google, welche hier aber auf jeden Fall nachziehen. Daher lohnt es sich auch immer einen Blick darauf zu werfen, was Bing macht.

Next Steps

Wenn Sie weitere Fragen haben, zögern Sie bitte nicht mich zu kontaktieren. Ich helfe Ihnen hier gerne weiter. Schreiben Sie mir eine Mail, vereinbaren Sie einen Call oder hinterlassen Sie mir Ihre Infos und ich melde mich bei Ihnen.

Wählen Sie hier Ihre gewünschte Kontaktoption:
Ich freue mich Ihnen weiterzuhelfen.
Bildquelle Header Blogartikel: istockphoto.com/de/portfolio/ChakisAtelier

Autorin


Avatar

Mein Name ist Kathrin Siemokat und ich bin Gründerin und CEO von IOM Agency. Seit Anfang 2005 bin ich in SEO tätig, seit 2006 mache ich SEA. 2007 kamen Social & Co. dazu. Heute kenne ich mich in allen Digital-Kanälen aus und freue mich, seit über einem Jahrzehnt Unternehmen hier zu unterstützen. Meine große Liebe ist jedoch Search, deshalb widme ich mich in diesem Blog überwiegend Themen rund um SEM (SEO, SXO und SEA).