AIO vs. SEO: Textoptimierung für KI-Suchmaschinen

Wer heute schnell etwas googelt, könnte morgen bereits ChatGPT, OpenAI Search oder Portale wie Perplexity nutzen – denn die bieten mehr Komfort. Doch was bedeutet der Aufstieg der KI-Suchmaschinen für uns Content-Ersteller? Wird AIO (AI-Optimization) das klassische SEO (Search Engine Optimization) ablösen?
Diese Fragen haben wir Florian Brodbeck, dem SEO-Experten von DER STANDARD, gestellt.

Interview: Maya McKechneay

_____________________________________

In diesem Beitrag geht es um:

  • Die wichtigsten Unterschiede zwischen KI-Assistenten wie ChatGPT und neuen Suchmaschinen wie Perplexity oder Googles Search Generative Experience.

  • Herausforderungen der Medienbranche, wenn KI ihre Inhalte durchsucht und in direkte Antworten verwandelt – statt Website-Traffic (Klicks) zu generieren.

  • Vor- und Nachteile von KI-Suchmaschinen für Unternehmenscontent im Netz.

  • Bedeutungsverlust von Keyword-getriebenem Content zugunsten hochwertiger Inhalte.

_____________________________________

 

Im Juli 2024 ist OpenAI Search, die Suchmaschine von ChatGPT, in die Testphase gestartet. Sind solche KI-gestützten Suchmaschinen für dich als SEO-Experten heute schon ein Thema?
Florian Brodbeck: Diese Suchmaschine ist derzeit noch Beta-Usern vorbehalten. Fest steht: Wir leben in einer spannenden Zeit! Aktuell sollten wir zwei Bereiche getrennt betrachten. Da sind einerseits ChatGPT und andere Anwendungen, die ich als Assistenz verwende. Und da sind andererseits Anwendungen, mit denen ich im Netz etwas suche. Perplexity, Copilot oder die Search Generative Experience (SGE) von Google bewegen sich ja schon in die Richtung KI-gestützter Suchmaschinen.

Viele Leute nutzen Large Language Models (LLMs) wie Google Gemini oder ChatGPT für Suchanfragen. Sie fragen: „Wo finde ich xy, wo kann ich es kaufen oder tun?“ Die Inhalte werden zwar angezeigt, aber oft ohne Quellenangabe. Bei Suchplattformen wie Perplexity hingegen sind die Quellen klickbar sichtbar. Solchen Plattformen sollten wir vermutlich eher zuarbeiten, um die Inhalte unserer Kunden sichtbar zu machen – oder?
Florian Brodbeck: Im Prinzip ja, aber viele Publisher denken: Das ist mir zu wenig, mit einem kleinen Icon zitiert zu werden oder mit einer hochgestellten Fußnote, wie Perplexity das derzeit tut: „Zitat von“. Vor allem, wenn man dieses Resultat vergleicht mit dem, was die Google-Suche bietet. Bei Google habe ich einen schönen Link, ein Bild und mein Ergebnis wird prominent platziert. Um den Inhalt zu lesen, muss ich auf das Ergebnis klicken, wodurch Traffic auf meine Seite gelenkt wird. Heute früh habe ich als Beispiel gesucht: „Wie ging gestern das Wiener Derby aus?“ Perplexity bietet als Antwort das Ergebnis, den Spielverlauf und einen Nachbericht. Alle Infos sind direkt in der Plattform gelistet, und mehr will ich wahrscheinlich gar nicht wissen. Das Problem für viele Publisher ist, dass solche Suchen keine Klicks auf die eigene Seite generieren.

 


Mit „Publisher
 meinst du Medienhäuser wie den STANDARD oder auch unsere Kunden, die Online-Inhalte publizieren, meist mit dem Ziel, Traffic auf ihre Website zu holen?

Florian Brodbeck: Alle, die Inhalte im Netz veröffentlichen, haben auch gute Argumente, die KI-Crawler abzuwehren. Ich argumentiere mal aus Sicht einer Qualitätszeitung wie DER STANDARD: „Es ist unser Content. Wir wollen ihn euch nicht schenken. Denn das ganze Modell von Perplexity oder OpenAI beruht ja darauf, dass sie Inhalte frei verwenden können, um ihre Sprachmodelle zu trainieren. Mittlerweile besitzt OpenAI eine fertige Software, die viel kann und verwendet wird. Aber die Personen, die die Grundlagen bereitgestellt haben, sind leer ausgegangen.

Bei ChatGPT werden Usern, die nicht gezielt danach fragen, nicht mal die Quellen der Inhalte angezeigt.
Florian Brodbeck: Ja, du befindest dich als User in einem geschlossenen System. Andere Plattformen wie Perplexity versuchen durch das Zitieren oder Verweise die Publisher wenigstens etwas zu besänftigen.

Zugleich gehen künstliche Intelligenzen bei der Informationssuche differenzierter vor als klassische Suchmaschinen wie Google. Statt nur nach Keywords zu suchen, analysieren sie den gesamten Webinhalt, um die Kernaussage zu erfassen: Ist der Text vertrauenswürdig und liefert er eine präzise Antwort? Für uns bei Egger & Lerch wäre ein solcher Suchmodus vorteilhaft, weil wir auf hochwertigen, journalistischen Content setzen. Sehe ich das richtig?
Florian Brodbeck: Wenn es darum geht, aufgefunden zu werden: auf jeden Fall. Google oder ähnliche klassische Suchmaschinen, die wir jetzt noch benutzen, ordnen ja bestimmte Begriffe ihrem Index zu – und bei einer Suchanfrage werden diese Inhalte aus dem Index herausgeholt und dem User zugespielt. Wenn ich das Keyword „Hochwasser“ oder „Panikattacke“ in Google eingebe, schaut Google, was innerhalb seines Index zu dieser Suchanfrage passt. Künstliche Intelligenzen bearbeiten ihre Quellen bei einem Suchvorgang hingegen so, dass man eine fertig formulierte Antwort bekommt. Keywords braucht es dazu nicht mehr. Allerdings empfehlen auch die Mitarbeiter der Google-Suche längst, keine „SEO-optimierten“, sondern einfach die bestmöglichen, informativsten Texte zu schreiben, ohne im Hinterkopf zu haben: „Ich muss das Keyword fünfmal wiederholen, Synonyme verwenden und mindestens 800 Wörter hochladen. Mittlerweile können die meisten Suchmaschinen solche hochwertigen Inhalte auch ohne Keyword-Nennung zuordnen.

 


Das heißt, die Regeln, die bisher für klassische Suchmaschinen galten, gelten im Großen und Ganzen auch für die KI-gestützten, die jetzt kommen?

Florian Brodbeck: Google spricht von E-E-A-T, einem Kriterienkatalog, der seinen Ursprung in den Google Search Evaluator Guidelines hat. Um die Qualität einer Website oder eines Dokumentes zu bewerten, schaut Google auf: Experience, Expertise, Authoritativeness und Trustworthiness. Das ist auch etwas, das diese KI-Modelle berücksichtigen. Sie erkennen: In diesem Feld bist du die Person, die Bescheid weiß, und dann wirst du verlinkt, zitiert usw. Als OpenAI angefangen hat, dieses Modell (ChatGPT, Anm.) zu trainieren, haben sie veröffentlicht, welche Websites sie wie häufig crawlen und verwenden. Und da hat man schon gesehen, dass die bekannt seriösen Zeitungen häufig abgegrast worden sind, aber auch Plattformen wie Reddit oder Seiten, die für eine gewisse Autorität stehen, vertrauenswürdig sind oder eine gewisse Expertise haben – bekannte Forschungsplattformen beispielsweise. Wenn man zu einem bestimmten Thema fortlaufend gute Texte schreibt, dann wird man automatisch zitiert ...

... hat aber möglicherweise wenig davon, weil man als Quelle von KI-Assistenten nicht angeführt wird und keine Klicks auf der eigenen Seite erhält ...
Florian Brodbeck: Genau. Fest steht jedenfalls: Mit Keywords wird man nicht mehr weit kommen. Man muss sich stattdessen für die KI als vertrauenswürdige und hochwertige Quelle etablieren – wenn man gefunden werden möchte.

Florian, wir sollten unbedingt in ein paar Monaten noch mal sprechen!

_____________________________________

Was ist das EEAT-Prinzip von Google?

Die Abkürzung steht für Experience, Expertise, Authoritativeness und Trustworthiness und beschreibt die Kriterien, nach denen Google die Qualität von Inhalten bewertet.

Experience bezieht sich auf die praktische Erfahrung des:der Autor:in.
Expertise meint das Fachwissen der:des Autor:in.
Authoritativeness bedeutet die Autorität der Quelle.
Trustworthiness steht für die Vertrauenswürdigkeit der Inhalte.

Diese Faktoren sind wichtig, um in den Google-Suchergebnissen besser platziert zu werden – und werden auch in der Bewertung durch KI-Crawler maßgeblich bleiben. Mehr zum EEAT-Prinzip finden Sie auf Google Search Central.
_____________________________________



Florian Brodbeck ist Leiter des Bereichs Webanalyse und SEO Management bei der STANDARD Medien AG, dem Mutterkonzern von Egger & Lerch. In dieser Funktion berät er die E&L-Redaktion immer wieder in Sachen SEO.

 

. . . . . . . . . . . . . . . . . . . . . . . . . . .

Das könnte Sie auch interessieren: