KI-Suche Teil 2 🔍 : Wie du dein SEO für KI anpassen solltest

19. November 2024, mit Joel Kaczmarek

Dieses Transkript wurde maschinell erstellt. Wenn dir ein Fehler auffällt, schreib uns gerne zu diesem unter redaktion@digitalkompakt.de.

Joel Kaczmarek: Hallo Leute, mein Name ist Joel Kaczmarek, ich bin der Geschäftsführer von digital kompakt und vielleicht erinnerst du dich, in der letzten Woche haben wir ja ein großartiges Gespräch geführt über KI-Suche. Der liebe Paul Krauss und der gute Hamid Hosseini haben nämlich eine tolle Studie aufgesetzt, wo sie untersucht haben, wie denn eigentlich Chat-GPT und Co., also LLMs, Large Language Models, eigentlich Webseiten durchsuchen. Weil daraus ergibt sich ja, dass das ganze Suchmaschinen-Optimierungs-Game, also wie werden meine Sachen im Internet eigentlich gefunden, natürlich vollkommen auf den Kopf gestellt wird. So, und Paul und Hamid, die sind beide aktiv in einer tollen Beratung namens EcoDynamics, da ist der liebe Hamid Gründer und Geschäftsführer und Paul ist Associate Partner, weil Paul ist ein Tausendsasser wie ich, der macht mehrere Sachen gleichzeitig, der ist nämlich auch noch Head of Digital bei MDCT. und falls du jetzt zum Beispiel auch neugierig bist, dann schau unbedingt auch mal auf suche.ki vorbei, da haben die beiden nämlich ein Tooling entwickelt, wo du das Wissen, was sie erarbeitet haben, für dich in deinem Unternehmen anwenden kannst. So und heute, Teil 2, dreht sich um die Frage, wie mache ich denn jetzt eigentlich genau SEO für KI suchen? Also wie optimiere ich meine Inhalte so, dass ich gut gefunden werde? Das heißt, wir werden mal ein Stückchen über Content Marketing reden, über Suchmaschinenoptimierung, über deine Teams, also bis hin zu einer Art Operating Model, wie kann ich eigentlich das, was da mittlerweile passiert, wenn gesucht wird auf meiner Seite, bedienen. So, that being said, ihr beiden, moin moin oder hello again besser gesagt.

Hamid Hosseini: Hallo Joel.

Paul Krauss: Grüß dich, moin.

Joel Kaczmarek: Wir haben ja letztes Mal schon so ein bisschen was gesagt. Fazit, eigentlich sollen die Leute sich mal die erste Folge anhören, dann kriegen wir ja auch ein bisschen Klicks, das finde ich schon ganz okay. Aber so in der Nutshell, ich fand eigentlich ganz überraschend, dass die KI, sag ich mal, eine Seite oftmals so durchsucht wie ein normaler User auch. Also wenn es zu oft klicken muss, hat es keine Lust mehr, wenn es den Text nicht versteht, hat es keine Lust mehr, wenn irgendwie Bilder nicht beschrieben sind, hat es keine Lust mehr, all solche Dinge. Vielleicht können wir mit so einem kleinen Throwback mal anfangen. Also Paul ist ja immer jemand, der gerne auch so über den Tellerrand guckt. Früher, heute und was ist denn eigentlich noch in Zukunft angesagt? Wollen wir damit mal einsteigen, Paul?

Paul Krauss: Ja, das können wir sehr gerne machen. Die LLM-Suchen sind ja nicht die einzigen Suchen, die stattfinden. Das heißt, das ist mal wieder ein klassisches Und-Thema statt ein Oder-Thema. Das heißt, es gibt einfach mehr Leute, die jetzt zusätzlich eben auch mit LLMs suchen. Das bedeutet So kommt man auch auf Nutzungsszenarien über 100 Prozent. Die Leute suchen auf YouTube, die Leute suchen auf TikTok, wenn sie einen Ticken jünger sind. und die Leute suchen eben auch über einen Search-GPT, wenn es denn rauskommt oder ein AI-Overview oder ein Perplexity. Und am Ende möchte ich da natürlich auch stattfinden. Also von daher ist da die spannende Frage tatsächlich, für was will ich gefunden werden? Und da sind wir eigentlich wieder bei klassischen Content-Marketing-Strategien.

Joel Kaczmarek: Du hast ja so in Vorbereitung auf unser Gespräch auch ein bisschen erzählt, was für Suchen kommen oder wie viel Prozent neue. Magst du uns da auch mal mit in die Hand nehmen?

Paul Krauss: Ja, sehr gerne. Also das Gute ist ja, dass die USA immer ein Ticken weiter vorne ist, was diese ganzen AI-Rollouts angeht. Das heißt, man kann sich da immer die strukturierten Erhebungen angucken. Zum Beispiel Neil Patel macht das sehr regelmäßig. Und was ich da sehr interessant finde, ist, dass 15 Prozent aller Suchanfragen, die reinkommen, Stand heute, sind neue Suchanfragen. Das heißt, die sind noch nie zuvor eingegeben worden. Und Google gibt es ja eine ganze Weile. Das bedeutet, auf diese 15 Prozent optimiert genau null Leute im Marketing, weil es sind ja neue Themen. Und der zweite Aspekt ist das, worauf wir uns jetzt auch hier konzentrieren, ist, dass acht Prozent der Suchanfragen tatsächlich in Fragen formuliert sind, wie in Suchanfragen. Das heißt, die Leute suchen nach Fragen. Wo finde ich denn einen guten Digital-Podcast? Und darauf sollte ich eine Antwort liefern. Da kann Hamid gleich noch ein bisschen mehr zu sagen. Und was man eben auch sieht, dadurch, dass Leute immer mehr Chatbots benutzen, ist, dass wir von dieser ganz, ganz alten Welt, wo man nach Friseur gegoogelt hat, hin zu, wo finde ich einen Friseur in meiner Nähe, der auch gut Haare färbt? Das heißt, die Keywords werden immer longtailiger, vor allem für die Themen, die, sage ich jetzt mal, etwas Revenue näher auch tatsächlich dann Umsatz generieren. Das heißt Wenn du dir die umsatztreibenden Keywords anguckst im klassischen SEO, die von drei bis sechs Wörtern sind, sind die tatsächlich extrem nach unten gegangen und alles über sechs Wörter extrem nach oben. Das heißt, die Leute suchen immer längere Strings in Fragestellung und darauf sollte deine Website eben eine Antwort liefern und möglichst eine, die wirklich dann auch in der Customer Journey des Kunden auch auf Themen eingeht, wo du sagst, die unterstützen meinen Verkaufsprozess.

Joel Kaczmarek: Ich weiß nicht, ich habe mal so ein Video gesehen, wenn Google ein Mensch wäre, wie dann die Gespräche aussehen würden. Dann hast du so einen Amtsstubentisch gesehen, dann saß auf der einen Seite eine Person und auf der anderen derjenige, der sucht und dann sagte der irgendwie immer, hallo, was kann ich für Sie tun? Und dann sagte der andere mal, Bonn, Hotel, günstig oder keine Ahnung, Frau finden, Berlin, Datingbörse. Also man redete mit Suchmaschinen bisher eigentlich sehr komisch und mittlerweile redet man mit der ja eigentlich fast wie ein Mensch, genau wie du es gerade gesagt hast. Und Hamid, sag mal, was war denn so dein Take, als du diese ganzen Ergebnisse irgendwie, diese ganzen Befunde hattest? Was hast du dir so überlegt, wenn du das Spiel dann umdrehst? Also du hast ja quasi die eine Seite so gesehen, was waren so deine ersten Gedanken, was mache ich jetzt mit diesem Wissen?

Hamid Hosseini: Am spannendsten waren ja vor allem die Vergleiche. Zum Beispiel, was passiert, wenn jemand eine Abfrage gezielt an Google sendet und was für ein Ergebnis kommt? Und was passiert, wenn wir das an ein LLM-Search-basiertes Modell schicken? und was kommt da für ein Ergebnis? Und die Ergebnisse waren teilweise unterschiedlich. Das heißt also, mal haben wir festgestellt, dass die Rankings relativ gleich waren. Mal haben wir festgestellt, dass die niedriger gerankten Seiten höher gerankt waren und mal haben wir festgestellt, dass überhaupt nicht gerankte Seiten top waren. Und da haben wir uns dann gefragt, woran liegt das und haben dann die Untersuchung begonnen, um festzustellen, wo sind da die Unterschiede, wo gibt es möglicherweise Anhaltspunkte. Wir haben weitestgehend erstmal die Ergebnisse so eingeschränkt, indem wir anhand dieser Vergleiche zu normalen Search versus LLM-basierten Search herausbekommen haben, dass zum Beispiel eine Website, die überhaupt nicht bei Google-Suche gefunden wurde und eher bei einem LLM-Search sehr aktiv war. Ich glaube, das haben wir auch beim letzten Mal kurz angeteasert. Nämlich, die hatten einen Bot auf der Website, was mit OpenAI gearbeitet hat und entsprechend die Website-Daten zum Beispiel bei Hugging Faces und Community for Data Scientists Container zur Verfügung standen. Das heißt also, wir haben erstmal Indikatoren gesammelt und natürlich auch die Inhalte untersucht. Also nämlich geguckt, gibt es einen Unterschied zwischen denjenigen, die höher oder niedriger gerankt sind und und und. Und haben versucht dann quasi Schwerpunkte in den Daten raus zu kristallisieren und dann das nochmal zu validieren. Nämlich, was passiert, wenn ich das jetzt reproduziere für neue Suchen? Sind diese Anhaltspunkte richtig? Und dann gab es am ersten Mal so 100 Anhaltspunkte. Davon waren circa 40 kompletter Schwachsinn. 60 davon wurde verdichtet. Also man immer wieder wiederholt die Untersuchung. Und von den 60 haben wir festgestellt, dass 25, circa 20 bis 25 höher in die Gewichtung fehlen. Und daraus haben wir quasi so eine Art Rahmenwerk abgeleitet. Über eine Suche kann man sicherlich jetzt nicht ein Versprechen abgeben, dass wenn man das alles macht, auch höher gerankt ist. Weil wir haben teilweise bei den Promptsets, weil bei einer Google-Suche fragt man zum Beispiel, wer hat die beste Tonschuhe oder wer hat die beste Versicherung. Und bei einem Prompt kann schon der Prompt eine massive Auswirkung auf die Ergebnisse haben. Da reicht schon ein Wort oder ein Adjektiv zu ändern. Und daher haben wir versucht, auch möglichst Standard-Prompts anzuwenden. die jetzt nicht professionelle Prompt-Engineer mit ein DIN A4-Seite erstellen, um dann nochmal zu validieren, ob diese Schwerpunkte richtig sind.

Joel Kaczmarek: So, Paul, jetzt hast du ja eben schon gesagt, es kommt eigentlich ein Stück weit auf Content-Marketing hinaus. Was heißt das jetzt für mein Content-Marketing, wenn ich jetzt weiß, alles klar, 20 bis 25 Punkte von den 100, die Hamid mal irgendwie festgestellt hat, sind relevant, 60, also sehr relevant, 60 sind insgesamt zu betrachten. Was würdest du jetzt ändern?

Paul Krauss: Das kommt immer ein bisschen drauf an, wie man gerade aufgestellt ist, was man ändern muss. Also ich glaube, wir kommen aus einer Welt mehrheitlich, wo man einfach ein Content-Piece einmal rausgeballert hat und gesagt hat, da ist es jetzt, da soll es ranken. Die Realität ist, dass wir alle, glaube ich, als Menschen aktuellen Content bevorzugen. Also nicht umsonst wird Wikipedia ganz weit oben gesehen, einfach weil da permanent was passiert. Ich glaube, das ist das Erste, dass man in seinen Google Analytics mal reingucken sollte und mal schauen sollte, okay, was passiert da und dann seine Inhalte updaten, weil die Dinge bewegen sich ja schnell und es wird extrem hoch gewertet. Auch da gibt es Untersuchungen aus den USA. Also am Ende muss ich mich ja immer wieder fragen, auch wenn ich mal zehn Blogartikel gemacht habe zum Thema XY, ist das immer noch für mich strategisch relevant für mein Business? Und welche Fragen gibt es weiterhin im Kaufprozess? Weil ich meine, ich mache ja Content Marketing auch nicht zum Spaß. Am Ende soll ich dann natürlich auf die Fragen einzahlen, die einem Kunden helfen, in seiner langen Customer Journey, in dem sowas mal wie B2B, eine große Software kaufen, die 50k kostet. Da überlege ich vielleicht zwei, dreimal, welche ich mir da ans Bein binde. Und dementsprechend sollte ich diese Fragen, die im Rahmen dieses Entscheidungsprozesses aufkommen, Für die sollte ich Antworten parat haben, weil am Ende hilft ja mehr, Inhalt auch nicht mehr zu ranken oder mehr zu finden, weshalb diese auf 100.000 Keywords zu ranken war ja noch nie eine gute Strategie, sondern am Ende sollte das alles darauf einzahlen, wie ich mich selbst als Marke oder wie ich mich auf dem Markt positioniere mit einem klaren Lösungs- und Mehrwertversprechen. Weil ich meine, 94 Prozent der Inhalte der Webseiten werden einfach nicht aufgerufen. Und da ist die Frage, macht es überhaupt Sinn, dafür Content zu produzieren? Und das ist viel, viel schlauer, ganz gezielt eben auf sehr, sehr longtailige Antworten zu gehen. Und da sind wir wieder im LLM-Spiel, wo ich sage, wer hat den besten Digital-Podcast in Deutschland? Und darauf dann eine explizite Frage auf der Webseite zu liefern. die das LLM auch am Ende versteht. Weil was bringt mir der ganze Kladderadatsch auf der Webseite, wenn sich den keiner anguckt? Das ist ja viel besser für die genau richtigen Fragen, für die richtigen User, den richtigen Antwort zu liefern. Und da kommen wir dann auch in die LLM-Welt.

Joel Kaczmarek: Also ist es wortwörtlich zu meinen? Also wenn ich jetzt zum Beispiel dein Beispiel aufgreife, wäre dann meine Aufgabe zu sagen, alles klar, Ich packe irgendwie unten FAQ-Bereich oder ein Lexikon auf meine Seite, wo ich einfach Fragen stelle, zum Beispiel sowas wie, oder beantworte eigentlich dann, warum wir glauben oder warum wir den besten Business-Podcast in Deutschland haben, Doppelpunkt, und dann Gründe aufzählen. Also ist das so simpel? Oder was hast du damit gerade gemeint?

Paul Krauss: Es ist auf jeden Fall elaborierter, weil man kann natürlich Relevanz, kann man natürlich nicht faken. Genauso wenig wie man diese vielen semantischen und qualitativen Strukturen, die letztendlich einen guten Content ausmachen. Jeder gute Copywriter wird dir das auch sagen. Da kannst du quasi auch in Google immer schlechter, aber auch die LLMs nicht austricksen. Am Ende musst du wirklich tatsächlich der beste Business-Podcast sein, um am Ende quasi diese Antwort zu haben. Aber Hamid kann da gerne mal ein bisschen was über die technischen Rahmenbedingungen sagen.

Hamid Hosseini: Ähnlich wie ein Mensch reagieren auch diese Large-Language-Modelle auf entsprechende Verständlichkeit, wobei man auch sagen muss, dass das Verständnis ja bei denen mathematisch basierend ist. Und neben diesem ganzen Thema Content-Marketing, vielleicht auch nochmal eine Ergänzung zu deiner letzten Frage, wir haben tatsächlich vier Hauptkategorien bei diesen Top-25-Kriterien entdeckt. Zum einen hauptsächlich, wie so schön Paul gesagt hat, Content und Marketing, darunter Marketing. Zum Beispiel Inhaltsstruktur, Qualität. Und was wichtig ist, dass die Grundhausaufgaben in SEO gemacht werden müssen, damit auch überhaupt diese Search Engines anhand der bestehenden Search Engines die Ergebnisse von Bing und Google abfragen. Dann kommt natürlich ein wesentlicher Punkt Content Marketing und Know-how, nämlich viel weniger Keywords und viel mehr Qualität. Was auch interessant war, war Voice Search und Featured Snippets. Darauf sind die irgendwie die LLMs richtig, die wurden dadurch so richtig getriggert. Und die weiteren Hauptkategorien im Content Marketing war User Experience, eine weitere Hauptkategorie war Reichweite und Seher und Werbung, wie auch Werbung geschaltet wurde. und noch eine zusätzliche Kategorie war Marketing. Die Technologie und Security. Unter Technologie kann man auch vielleicht, was ein bisschen einhergeht mit Content-Struktur, auch den Vektorraum einer Website noch ergänzen, weil die LLMs ja am liebsten Vektordaten brauchen, Grafdaten brauchen. Und ungefähr von diesen 20 Kriterien waren vier, fünf Kriterien basierend halt auf die Verständlichkeit der Vektorräume. Das kennt man ja von LLMs, wenn du irgendwie Daten ergänzen willst, Kontext erweitern willst, musst du denen ja deinen PDF zur Verfügung stellen und die vektorisieren ja in der Regel diese Daten. Und daher vektorisiert auch ein LLM diese Website, um das besser zu verstehen.

Joel Kaczmarek: Hilf mal geneigt, Lion, was meint denn vektorisieren und was ist ein Vektor?

Hamid Hosseini: Vektoren, also in der linearen Algebra sind ja quasi so Pfeile oder Richtungspfeile, sehr einfach erklärt, die entweder in einem oder zwei oder drei oder n-dimensionalen Raum existieren. Das heißt, sie haben Anfang und Endpunkt als Koordinaten. Also einfach gesprochen, wenn wir uns mal so einen dreidimensionalen Raum vorstellen, damit man sich das bildlich vorstellen kann. Am besten erkläre ich das immer anhand von einem Farbsystem. Rot, Grün, Blau. Stell dir vor, du hast halt auf der X-Achse Rot, Grün auf der Y-Achse und Blau auf der Z-Achse. Also wir haben jetzt ein räumliches Koordinatensystem. Und wenn wir zum Beispiel jetzt die Farbe hinter dir nehmen, ich glaube, das ist holzig, irgendwie braun. Und dann nehmen wir diese Farbe, das hat ja drei Informationen, nämlich Rot, Grün, Blau, jetzt ein RGB-System. So, dann muss man sich jetzt in einem dreidimensionalen Raum diesen Punkt vorstellen. Und das hat ja quasi von Nullpunkt bis zu dieser Richtung ja quasi einen Vektor, kannst du da erstellen. Und wenn wir jetzt zum Beispiel, nehmen wir mal an, Grün nehmen oder halt ein bisschen heller die Farbe daneben, da sind ja unterschiedliche Farbnuancen bei dem Hintergrund, dann sind diese RGB-Daten in diesem dreidimensionalen Raum recht nah aneinander. Eine Empfehlung hier an der Stelle, ein relativ simples Verfahren ist da zum Beispiel Skalarprodukt, wo man halt Vektoren verglichen hat, deren Abstand in so einem dreidimensionalen Raum und mit dem Skalarprodukt kann man zum Beispiel sehen, ah Moment, dieser braun und hellbraun, was da hinter ist bei dir. Das ist relativ nah, also möglicherweise haben diese Farben was gemeinsam. Wenn ich jetzt auf einmal deine T-Shirt-Farbe nehme, dann ist das ja ein völlig anderer Abstand und dann wird das Modell denken, okay, wenn ich jetzt daraus einen Abstand ermittle, dann hat möglicherweise Blau weniger zu tun mit Braun. Also ich gebe mal ein einfacheres Beispiel, wenn ich sage, nehmen wir mal an, wir würden in Berlin essen gehen und du suchst dir halt ein Fischrestaurant raus und was trinkt man in der Regel zu Fisch? Weißwein. So, und wenn ich jetzt sage, okay, jetzt nehmen wir aber kein Fisch, sondern Meeresfrüchte und dazu trinkt man auch Weißwein und Meeresfrüchte und Fisch sind auch in diesem Wissensraum relativ nah, dann kann das Modell mathematisch auch eine Verbindung herstellen, dass möglicherweise Meeresfrüchte und Fische was gemeinsam haben. Und zwar jetzt nicht nur wegen dem Weißwein, sondern möglicherweise auch wegen der Wissenskoordinaten. Und jetzt haben wir über drei Dimensionen gesprochen. Diese Large-Language-Modelle können N-Dimensionen verarbeiten, teilweise 500.000 oder mehrere Tausend Dimensionen, wo unterschiedlichste Informationen dann in diese Vektordaten aufgenommen werden.

Joel Kaczmarek: Und sag mal, wer baut eigentlich die ursprüngliche Karte, wenn ich die Vektoren betrachten möchte? Also das Blau einen Index hat und Braun und Rot oder Gelb und Grün oder whatever it is oder dein Weißwein und dein Rotwein. Also ich brauche einen Ausgangspunkt, ich brauche einen Fixpunkt, von dem ich sozusagen immer steuern kann. Weißt du, was ich meine?

Hamid Hosseini: Klar, und das ist halt etwas, was wir zum Beispiel, wenn Netze trainiert werden, jetzt kommen wir so ein bisschen auch in Richtung Erkenntnistheorie und Philosophie, also wie man auch Begriffe definiert, weil am Ende des Tages sind es ja nur irgendwelche schnöde Zahlen. Und auch selbst wenn wir imprompten, da werden auch entsprechend die einzelnen Prompt-Elemente ja in Tokens zerlegt und das ist erstaunlich. Erstmal dem Modell. völlig egal, ob da steht digital kompakt oder ein LKW lädt gerade Schutt und Asche ab. Ist erstmal egal. Nur was es nicht egal ist, ist halt das mathematische Konstrukt dahinter. Das heißt also, dass ich halt erstmal dem Modell erkläre, diese Information entspricht dieser Vektor oder Token, diese Information entspricht einer anderen Token. Und beim Training wird ja halt immer darauf geachtet, dass diese Modelle lernen, wie man lernt. Also wir trainieren ja oder generell solche Netze werden ja nicht trainiert, indem Daten zur Verfügung gestellt werden oder Menschen trainieren diese Netze nicht, sondern man bringt denen eher Lernalgorithmen bei und die lernen, wie man lernt und bauen dann diese Neuronenverbindungen auf.

Joel Kaczmarek: Du hast ja eben auch noch was anderes Interessantes gesagt. Du hast gesagt, die sind total abgegangen auf Voice Search und auf, ich glaube, Mediasnippets hast du noch gesagt, ne?

Hamid Hosseini: Genau, in einigen Fällen, also ich glaube, das waren so zehn Seiten, Longtail-Keywords oder auch für Sprachsuche optimiert waren. Wenn zum Beispiel die Antworten bei einem FAQ nicht so lang waren und nicht sinngemäß eine verständliche Semantik und Taxonomie mitgebracht haben, wurden die nicht so berücksichtigt und bei diesen 10, 15 Seiten waren die Antworten teilweise richtig lang. Also man sagt ja immer, bei FAQ halte ich kurz und die Menschen kommen manchmal mit einem Satz Antwort klar. Aber eigentlich, wenn man mal überlegt, die Klientinnen, die Kundinnen wollen ja immer klare, verständliche Erklärungen haben. Das sind dann idealerweise so längere als drei bis vier Zeilen. FAQs hatten auch eine Auswirkung auf diese Voice Searchs gehabt.

Paul Krauss: Und da vielleicht ergänzend, also interessant ist eben, dass dieses, weil du gerade länger angesprochen hast, es gibt ja immer noch diese alten Binsenweisheiten von ja, ein Blogartikel muss zum Beispiel 2000 Wörter lang sein. Das mag nicht nur das LLM nicht, sondern das mögen auch die Menschen nicht. Das heißt, wenn du dir die Top-Ranking-Artikel anguckst im Blogbereich, die auch in den USA sind, dann sind die tendenziell deutlich kürzer, weil die Leute einfach nicht mehr so lang lesen. Und was Hamid vorhin mit den neuronalen Vektorräumen und so weiter gesagt hat, es gibt, glaube ich, in Pandora einen klassischen SEO. Das sind diese klassischen Themencluster, die man kennt, also die Pillar Pages, dass man zum Beispiel sagt, ich habe jetzt einen Online-Shop. Ist nicht ganz dasselbe, aber so als kleine Stütze, wie es sich auf Content-Marketing übertragen lässt. Macht halt keinen Sinn, wenn ich eine Kategorie-Seite habe, die sagt, ich habe Camping-Ausrüstung als Online-Shop. Ja, super, dann sollte ich vielleicht noch eine Seite haben, eine Landingpage für Camping. Zelte für schlechtes Wetter, Schlafsäcke, Campingkocher für unterwegs und da quasi diese Themenwelt aufmachen als Themencluster, die sauber intern verlinken. Und damit entsteht in so einem Themencluster halt ein in sich schlüssiges inhaltliches Konstrukt, wo auch ein Google merkt, ah super, da versucht jemand ernst gemeint quasi Inhalte für Nutzer bereitzustellen, die nicht nur abverkaufsfördernd sind, sondern auch für den Nutzer einen wirklichen Mehrwert bieten. Man sollte, sage ich jetzt mal, ähnliche Methoden auch schon aus SEO-Gründen machen, einfach um für ein Thema eine wirkliche Autorität zu haben und nicht zu jedem Thema sich zu äußern, weil sonst ist man ganz schnell die Bild-Zeitung.

Joel Kaczmarek: Ja, weil ich war gerade im Begriff, Hamid, zu fragen, was jetzt eigentlich der Unterschied ist im Content-Marketing zu früher. Also muss ich für LLMs irgendwas anders machen, als ich es jetzt für Google machen würde?

Hamid Hosseini: Ja, also zum Beispiel ein paar Empfehlungen, die wir hier an der Stelle aussprechen können. Wir gucken uns die Inhaltsstruktur und Qualität der Inhalte an. Da sollten zum Beispiel präzise Überschriften sein. Also jetzt nicht irgendwelche komischen abgespaceden Sachen, weil wo zu viel Interpretationsraum ist. Da haben wir zum Beispiel festgestellt, ich kann wirklich von Verdichtung von Informationen sprechen, dass da immer, wenn Inhalte, Inhaltsstrukturen präziser waren und Halbtexte vor allem waren super wichtig, auch bei zum Beispiel Bildern oder auch Metatags haben schon eine Rolle gespielt. Allerdings mussten die auch kohärent sein oder fast deckungsgleich zu den Inhaltsstrukturen. Weiterer Punkt war halt zum Beispiel, was SEO betrifft, wenn, nehmen wir mal an, die Hausaufgaben bei den Seiten, die jetzt nicht unbedingt sehr aktiv sind in diesen Data Science Communities, die aber ihre Hausaufgaben zum Beispiel bei Google SEO gemacht haben, aber dennoch niedriger gerankt wurden, lag zum Beispiel daran, dass zum Beispiel diese Meta-Tags teilweise sehr, sehr, sehr auf Einzelworte so beschränkt waren, weil die halt so getrimmt waren auf irgendwelche Rankings bei Google. Aber dann hat das LLM gedacht, okay, was soll ich jetzt mit den einzelnen Stichpunkten machen, weil es keine Verbindung herstellen konnte. Das heißt, da empfiehlt sich doch mal ein Abschnitt zu erstellen bei dem Metatax, wo auch sprechende Metatax stehen, damit man weiß, wie stehen diese ganzen Begriffe überhaupt zueinander. Bei Content Marketing selbst waren zum Beispiel Transkriptionen. Immer wenn zum Beispiel transkribierte Informationen gefehlt haben, hat das Modell irgendwie Schwierigkeiten gehabt, weil die ja kein Video grabben können. Oder wenn die Blogposts werblich waren, dann hat das Modell, die in der Regel, also wenn zu viel Produktnaming und Brandnamen drin waren, Wenn man weniger Content, ähnlich wie LinkedIn zum Beispiel, auch die Qualität festlegt, dann war es auch problematisch. Und interessant war halt zum Beispiel, wenn White Papers existiert haben, waren White Papers gerne gesehen, die einen Fachartikel, Zitat, semi-pseudo-wissenschaftlichen Hauch mitbringen. Das waren zum Beispiel so die Punkte. Jetzt wird es interessant. nochmal zu diesen Vektorräumen. Wenn der Vektorraum einer Seite nicht deckungsgleich war mit dem, was die Seite beabsichtigt, haben die auch teilweise Schwierigkeiten gehabt, weil das Modell, wie gesagt, vektorisiert die Seite, kann aber auch ein Verständnis der Semantik und Taxonomie erstellen, guckt aber halt, ist der Vektorraum relativ gut modelliert. Wenn es schlecht modelliert ist, was ist ein schlecht modellierter Vektorraum zum Beispiel? Wenn bestimmte Informationsbereiche so entkoppelt sind, muss man sich zum Beispiel so ein Sternensystem vorstellen. Und in diesem Sternensystem sind so Ansammlungen, die völlig entkoppelt sind, wo keine Verbindungen existieren. Da kommt das Modell so ein bisschen in Probleme und sagt so, was mache ich damit jetzt?

Joel Kaczmarek: Wie gut würde ich denn fahren, wenn ich einfach ein LLM, mein Content-Marketing für ein anderes LLM schreiben lasse? Also wenn ich sozusagen, kann ich selber formulieren, geht sowas gut?

Hamid Hosseini: Sehr, sehr guter Punkt. Wir haben tatsächlich zwei Bots entwickelt oder drei mittlerweile, die ja quasi das ja genau unterstützen sollen. Das heißt also, wenn man diese Regelwerke und diese Gesetze kennt, kann man ja tatsächlich so einen GPT erstellen, der dann anhand der Erkenntnisse oder die Websites anguckt und ab was ist unsere Erkenntnisse? quasi, die relativ klar sagt, was da zu tun zu lassen gibt. Allerdings, ich empfehle da immer noch einen Moment drüber zu gucken über die Regelwerke. Ergebnisse, weil trotz, dass wir da tagtäglich mit dem Zeug zu tun haben, würde ich immer empfehlen, auf jeden Fall eine Qualitätsschleife einzubauen. Also ein Bot zum Beispiel macht Inhaltsoptimierung, der zweite macht technische Optimierung, weil was wir jetzt zum Beispiel gar nicht besprochen haben, ist der Code der Website. Da guckt komischerweise auch ein LLM gerne drauf. Hat ich mal, glaube ich, kurz angeteasert, wenn das nicht W3C-konform ist, sagt das Modell so, ich habe jetzt keine Lust, in irgendwelchen dynamischen Skripte rumzusuchen, das ist irgendwie, ne, ich mag das nicht. Wie so ein Entwickler oder ein Dev, ob der einfach Codes, weißt du, so kritisiert oder so, das zeigen die auch aus. Der dritte Bot macht tatsächlich auch Textoptimierung und Bildoptimierung. Beziehungsweise Vorschläge bezüglich der Bilder. Weil ich finde, diese Bildmodelle, bis auf Midjourney, sind im Moment noch nicht alle so dolle. Also zum Beispiel bei OpenAI ist das eigentlich noch nicht so für professionelle Zwecke gar nicht einsetzbar. Aber die können schon zumindest sagen, weil die haben ein Verständnis der Bildsprache und sagen, dieses Bild ist so abstrakt, ich komme damit nicht klar. Und tatsächlich kann man das machen, ja.

Paul Krauss: Und vielleicht ergänzend, weil Hamid auch gerade die Rolle von Alt-Text gesagt hat, ist es total einfach, ein Open-AI-Modell zu inkludieren, was im Prinzip einfach die Alt-Texte für dich zum Beispiel schreibt. Weil, seien wir ehrlich, da hat keiner Lust drauf. Es gibt einen Grund, warum die auf ganz vielen Webseiten nicht drauf sind. Und noch ein Punkt, ja, du kannst es von KI schreiben lassen, aber sag es nicht quasi oben am Einleitungsartikel. Weil wenn du reinschreibst, dass es von einer AI geschrieben ist, dann gucken sich das die Leute nur noch 50 Prozent so lang an, weil sie nicht mehr so viel Zeit investieren quasi, weil sie gesagt haben, es hat eine KI geschrieben. In der Studie hat alles ein Mensch geschrieben, aber sie haben halt getestet quasi, ob das Wissen beim User, ob es eine KI geschrieben hat oder nicht, seine Interaktion mit dem Artikel beeinträchtigt. und guess what, ja. Weil du denkst, da hat niemand Zeit investiert, also investiere ich auch weniger Zeit. Was per se natürlich nicht stimmt, weil alle Artikel waren vom Mensch geschrieben. Aber am Ende würde ich es jetzt die Leute nicht wissen lassen und mich darauf konzentrieren, dass ich wirklich einen echten Need löse, weil dann spielt es am Ende keine Rolle. Wenn ich auf die gute Frage eine gute Antwort habe, dann ist es ziemlich egal, ob das eine Maschine war oder ein Mensch. Ich sollte es aber vielleicht nicht fett drüber schreiben und sagen, das ist alles von der KI.

Joel Kaczmarek: Und sag mal, gibt es Dinge, die LLMs beim Content Marketing erfordern, die mich bei dem Content Marketing für Google und Co. schlechter stellen würden? Also gibt es auch Dinge, wo die andere Sachen wollen oder sind die relativ homogen unterwegs?

Hamid Hosseini: Wir haben jetzt nicht die andere Seite validiert, weil unser Fokus war ja LLM Search. Aber was sicherlich hier eine wichtige Rolle spielt, ist halt, dass Keywords kaum oder eine geringfügige Rolle spielen, weil Die Ergebnisse werden ja quasi ausgeworfen über die APIs von Bing und Google. Ich weiß nicht, ob da Google auch richtig so drauf achtet. Also wir konnten da keine Anhaltspunkte finden, weil das, was Paul nämlich gesagt hat, nämlich mit diesen ganzen Alttexten, was ja nun ein Stück weit zur Barrierefreiheit gehört, haben wir eher auf der LLM-Seite festgestellt, dass die am liebsten mit diesen sogenannten ARIA-Attributen sehr gut klarkommen und das erwarten. Sonst empfehle ich halt den Zuhörerinnen auf jeden Fall, da das Referenzmodell abzurufen, weil je mehr die Barrierefreiheit wirklich vollumfänglich berücksichtigt wurde, umso besser kamen die LLMs damit zurecht. Wir hatten teilweise wirklich den Eindruck, dass die noch nicht so komplett visuell auch arbeiten. Ist ja auch logisch, weil die ja hauptsächlich Informationen verarbeiten.

Paul Krauss: Lassen wir mal den Technical SEO Part ein bisschen weg. Also da gibt es natürlich sicherlich Übereinstimmung, aber der Punkt ist ja, es gab ja dieses fette Google League irgendwann dieses Jahr, wo ganz viele Sachen, die Google gesagt hat, das machen wir nicht. Steht aber in der Dokumentation, dass sie es doch machen. Also von daher, da ist jetzt die ganze SEO-Welt dran, diese, ich glaube, 14.000 Ranking-Faktoren nochmal quasi für sich selbst zu entschlüsseln. Aber ich glaube, ein relevanter Aspekt, der dann auch ein bisschen auf diese Eigenheiten geht, die du in dem Intro gesagt hast, Joel, Wenn sich die Maschine, das kann man jetzt quasi ein bisschen philosophisch auslegen, aber wie ein Mensch verhält, macht es ja eigentlich auch Sinn für Menschen zu optimieren und ergännen. Also Google hat deine Daten von YouTube, Google hat die ganzen Daten aus dem Chrome-Browser. Die wissen so wahnsinnig viel darüber, wie du mit dieser Seite interagierst und was du als für eine Autorität bist. Von den Backlink-Strukturen angefangen, natürlich kann man noch auf Keywords optimieren. Die Frage ist halt, wie sinnvoll es ist, weil am Ende quasi, wenn meine Webseite keinen Spaß macht, ne? und die Schrift nicht gut lesbar ist oder wenn die Bilder schlecht sind oder wenn es einfach keinen Spaß macht, die Seite zu benutzen oder die nicht mobil optimiert ist. Es gibt ja eine ganze Reihe von Faktoren, wo, glaube ich, eine gute Faustregel ist, ohne dass das jetzt quasi irgendwas ein- oder ausschließt, für User zu optimieren, dass der Inhalt wirklich gut lesbar ist, Spaß macht und eine Frage beantwortet. Und genau die Punkte wird dir auch ein LLM danken, weil es zumindest in diesem Explorationsprozess sich stellenweise sehr menschlich verhält, Aber nicht überall, wie Hamid schon gesagt hat, weil du und ich, wir gehen jetzt nicht auf eine Webseite und gucken uns den Code an. Also von daher, es gibt auch schon Unterschiede.

Joel Kaczmarek: Was ist mit Indexierung? Weil ich erinnere mich, bei unserer ersten Folge hatte Hamid gesagt, die Maschine hat nach vier Klicks schon spätestens keine Lust mehr. Also man will eigentlich nicht lange suchen müssen. Indexierung, Inhalte gut auffindbar zu machen, daher ein wichtiger Faktor?

Hamid Hosseini: Auf jeden Fall. Das Ding ist ja, ich halte es noch unmöglich, das Google-Wissen aufzuholen. Bzw. nicht unmöglich, aber sehr kostspielig und Zeitaufwendig. und da ist Indexierung sehr, sehr wichtig und zum anderen auch trotzdem der Job in SEO noch weiter gemacht wird. Die Funktionsweise ist relativ simpel. Ein Prompt wird lemmatisiert unter anderem. Lemmatisierung heißt, da werden irgendwelche komische Füllworte rausgenommen, damit man halt daraus einen API-Aufruf an Google Bing senden kann. Das liefert dann die Ergebnisse. Die Ergebnisse werden als Kontexterweiterung wie Retrieval Argumented Generation verarbeitet in dem LLM. Und das Ding entscheidet dann teilweise, wie ranke ich das und was zeige ich da. Und da ist sicherlich Indexierung eigentlich auf beiden Seiten super wichtig.

Joel Kaczmarek: Du hast ja auch gesagt, dass Seiten, die ein OpenAI-Bot auf der Seite laufen hatten, deutlich besser gerankt sind. Also sollte ich das auch tun, wenn ich gut ranken möchte?

Hamid Hosseini: Soll keine Werbung sein, weil irgendwie wissen viele ja, dass wir da auch sehr aktiv sind mit denen und auch Early-User sind seit 2021. Nur das war zum Beispiel auffallend. Und zwar nicht nur OpenAI, aber bei den großen Foundation-Modellen, also auch Anthropic. Also würde ich dir schon empfehlen, weil diese Bots, die dort agieren, interessanterweise aber auch die öffentliche Daten verarbeitet haben. Weil da gibt es ja so ein paar Datenschutzaspekte, die man ja auch bei der Nutzung dieser Foundation-Modelle berücksichtigen muss. Also das waren dann Bots, die einen API-Aufruf zu OpenAI direkt gemacht haben. Beziehungsweise wir konnten jetzt noch keinen Anhaltspunkt feststellen, wenn jetzt diese OpenAI-Modelle auf Azure in Deutschland liefen, ob es das Gleiche war. Weil da haben wir zum Beispiel keinen Anhaltspunkt gefunden. Das heißt also, es musste schon irgendwie ein öffentlicher Bot sein, der natürlich auch irgendwie datenschutzkonform arbeitet, aber trotzdem auf den amerikanischen API zugreift. Da bitte nochmal mit Legal immer Rücksprache halten, Disclaimer aufsetzen. Aber ja, das ist das eine. Und erstaunlicherweise Nutzung von Huggingface. Also zum Beispiel hatten ein paar Seiten wirklich den kompletten Website-Inhalt als eine Art Container oder Repository in Huggingface aufgesetzt. Und haben da teilweise auch den Bot einfach einmal die Woche auf diesen Repository geschickt. Ich vermute mal, das war eher dafür, dass der Bot quasi die Inhalte der Website beantworten kann. Das wiederum geführt hat, dass zumindest bei OpenAI gerankten Seiten die Inhalte dann höher gerankt wurden, obwohl die in Google einen mega schlechten Job hatten. Also teilweise auf Seite 4, 5 mussten wir die finden oder Seite 10.

Paul Krauss: Vielleicht ergänzend noch ein Grund, warum du ein Chatbot auf deine Seite holen würdest. Ja, da gibt es Pluspunkte, aber der Punkt ist, User werden es auch erwarten. Es gibt immer noch Online-Shops, wo sie sagen, ruf uns doch mal bitte an innerhalb unserer Geschäftszeiten. Die sind so asozial. dass halt niemand, der arbeitet, da anrufen kann. Das bedeutet, dein Thema, dass dein Paket oder irgendwas delayed ist, darfst du dann quasi Mitte die nächste Woche nehmen. Das heißt, früher oder später wird die Erwartungshaltung der meisten User sein, dass es Leute gibt, die präferiert so suchen. Suche ist ja auch auf einem Onlineshop zum Beispiel, wenn du Onsites suchst, einfach eine andere Art, sich quasi die Inhalte der Seite zu erschließen. Es gibt die Leute, die gehen über Google, es gibt die Leute, die geben es über das Menü, es gehen die Leute, die gehen über die Onsitesuche. Und am Ende wird es immer mehr Leute geben, die einfach diesen Habitus entwickeln, wirklich sehr, sehr longtailige Sachen auch in deine Suche einzugeben auf deiner Seite. Und wenn die da null Ergebnisse ausspuckt, bist du frustriert, gehst und gehst zu deinem Wettbewerber. Also von daher ist früher oder später einen Chatbot auf deiner Seite anzubieten oder deine On-Site-Suche zu enablen, auch longtailige Keywords zu verarbeiten, essentiell, um die User halt nicht wirklich total abzuschrecken und damit eigentlich Opportunitäten liegen zu lassen.

Joel Kaczmarek: Lasst uns doch auch mal ein bisschen über SEO-Teams reden. Also, wir haben jetzt schon einiges gelernt, wie ich mein Content-Marketing ausrichte. Was findet ihr, was wichtig wäre, wenn ich ein Team konfiguriere oder wie ich das arbeiten lasse, um meine Seite besser auffindbar zu machen?

Hamid Hosseini: Zum einen muss ich weiterhin den Job in klassischer SEO weitermachen und das wirklich auch ernst nehmen. Ich habe manchmal Gespräche mit Klientinnen, die ein oder zwei Leute darauf setzen, wirklich große Unternehmen. Und da empfehle ich wirklich mal entweder mit Agenturen oder halt die Mannschaftsstärke dort verstärken, weil das ist nach wie vor wichtig, eine Botschaft an die SEO-Agenturen da draußen. Dieser Job muss noch weiter gemacht werden und wir werden so eine Art Wechsel haben, dass möglicherweise diese, falls das so kommt, dass die LLM-basierten Suchmaschinen weiter eine Marktdominanz gewinnen, dass diese klassischen SEO-Aufgaben nach und nach weniger werden und mehr und mehr LLM-Optimierung eine wichtige Rolle spielt. Darunter halt diese Empfehlungen, die wir gemacht haben. Und ein wichtiger Aspekt ist halt, dass diese SEO-Teams viel mehr über solche Dinge wie LLMs arbeiten, wie Taxonomien und Semantik und Kontext und Sprachverständlichkeiten. Da empfehle ich wirklich sogar mit Soziologinnen, Kommunikationswissenschaftlerinnen, Philosophinnen teilzunehmen. mal sich auszutauschen. Das klingt komisch, ist aber so, weil diejenigen, die sich nämlich exzellent ausdrücken können, das sind die besten Ratgeber für die Inhalte, da ist ein Keyword nicht mehr wichtig. Und diejenigen, die super kommunizieren können, werden sehr, sehr wichtig werden in Zukunft. Plus natürlich entweder durch externe oder interne Hilfe mit Data Scientists oder Mathematikerinnen, weil das ungefähr so Pi mal Daumen, 20 bis 25 Prozent in die Gewichtung fiel, aufgrund unserer Informationen, auch durchaus die Vektorräume sich anzugucken. Und das ist halt etwas, wo man gucken muss, okay, sind die sauber, die Vektorräume, muss ich da regularisieren, normalisieren und so weiter und die dann anzupassen. Da braucht man zumindest mal immer wieder mal einen Data Scientist oder einen Mathematiker, der da drauf schaut oder Mathematikerin.

Paul Krauss: Kommt ja auch darauf an, wie man SEO definiert. Ich finde, Hamid hat da viele gute Punkte gesagt. Das heißt, wenn man das klassisch noch mit der Suchmaschine als solches assoziiert, ist das, glaube ich, zu kurz gesprungen. Weil ich finde, diese neue Abkürzung mit Search Everywhere finde ich den besseren Ansatz. Weil am Ende kann ich den Punkt nicht steuern, wo Leute suchen. Also nicht umsonst, denn auf Amazon, die Produkttitel lesen sich wie Romane. Das liegt einfach daran, weil die Leute dafür gefunden werden wollen. Oder wenn du dir die ganze Google-Feed-Optimierung und so weiter anguckst. Das heißt, wir werden immer mehr an den Punkt kommen, wo wir sowohl auf YouTube als auch auf Amazon als auch auf der eigenen Suche quasi diese ganzen Strings immer mehr machen müssen, um wirklich auch ein gutes Match zu machen, weil wenn am Ende ein Bot halt hingeht, auch wenn das jetzt nicht ganz akkurat ist und du versuchst, einen guten Prompt zu beantworten und in deinem Produkttext, stehen nicht mal die wichtigsten Eigenschaften drin, dann wirst du halt dafür nicht gefunden. Und das ist nicht nur ein SEO-Thema, sondern das ist früher oder später eben auch ein Marktplatz-Thema oder ein Feed-Thema oder sonst irgendwas, was dir an irgendeiner Stelle wehtut, wo du eigentlich Abverkäufe generieren könntest.

Joel Kaczmarek: Wenn ich jetzt ein kleines Unternehmen wäre und hätte das gerade gehört, würde mir so ein bisschen Angst und Bange werden. Also ist es jetzt wirklich notwendig, dass ich irgendwie Data Scientists, Mathematiker einstelle, noch eine SEO-Agentur am Betrieb habe und dann vielleicht nochmal einmal im Monat mit einem Soziologen oder einem Philosophen rede, damit ich irgendwie meine Webseite findbar mache?

Hamid Hosseini: Jetzt muss man natürlich mit Augenmaß und Wirtschaftlichkeit an der Sache ran. Augenmaß heißt, es gibt immer noch Unternehmen, die zum Beispiel als Hidden Champion fünf Schrauben an 200 Länder ausliefern und die haben einfach bestehende Netzwerke, die gehen über Einkaufsportale oder wie Ariba oder sonst was. Also sind so große Netzwerke, die da existieren, das macht keinen Sinn. Scheibchen von diesen Leistungen sind völlig ausreichend, weil das muss man ja nicht permanent machen, vor allem wenn Als kleine Unternehmen, die Seiten ja recht statisch sind oder selten dort Blogposts oder News reinkommen und so weiter, da kann ich sagen, cool bleiben und eher diese Leistung als Managed Service in Anspruch nehmen, anstatt, wie du so schön gesagt hast, morgens mit Philosophinnen, übermorgen mit Soziologinnen und dann Freitags auch noch die Mathematiker bespaßen, was wir aber bisher noch gar nicht gesprochen haben. Bei E-Commerce-Seiten und bei Produktsuchen spielt ja Retail Media eine ganz, ganz große Rolle. Und das wird noch richtig spannend, weil es ist ja nicht nur Google Search und SEO, sondern es werden ja sehr viele Werbeausgaben in Retail Media investiert. Und das wird noch richtig, richtig spannend, glaube ich, in Zukunft. Wie werden die Produkte beworben, die dann auf einem Shop oder Marktplatz existieren?

Joel Kaczmarek: Ich bin ja eher Suchleihe. Habe ich noch eine wichtige Frage zu stellen vergessen oder habt ihr noch Punkte, wo ihr sagt, da sollten wir noch unbedingt drüber reden?

Hamid Hosseini: Erste Empfehlung, guckt bitte, ob die Seiten, ob die Sprache überall stimmt, ob die Inhalte verständlich sind und testet das. Lest das nochmal durch. Ergänzt nochmal die Seiten, nicht nur um diese ganze Keywords, sondern als Mensch, die Inhalte verständlich sind. Schaut bitte, ob die Bilder Schaut bitte, ob die Bilder auch verständlich sind. Also guckt durch diese Kriterien. Schaut einfach, ob der Code sauber ist. Guckt einfach, dass ihr nicht so verrückte dynamische Elemente da drin habt. Versucht möglichst, wenn es geht, darauf zu verzichten. Es ist halt ein Produkt-Website. Dann bei größeren Unternehmen empfehle ich wirklich jetzt auch die SEO-Teams, Schulen, wie man mit LLMs umgeht, was die Funktionsweise ist. An die Agenturen empfehle ich das Gleiche, dass sie auch da jetzt relativ zügig Know-how aufbauen und dann entweder im Team das Know-how mit LLM aufbauen oder einen parallelen LLM-Team aufsetzen, was relativ schnell auch diese Sachen umsetzt. Und last but not least, wie gesagt, auch mal zu gucken, dass viel mehr qualitativen, fachlichen Content produziert wird, So wie du das halt, Joel, machst mit deinem Podcast. Also guck wirklich, dass es Werbung plus fundierte Inhalte dort immer existieren.

Joel Kaczmarek: Paul, hast du noch was zu ergänzen?

Paul Krauss: Ich hätte auch fünf, die sind komplett unrelated, aber die korrelieren eigentlich ziemlich stark mit dem, was Hamid sagt. Also einmal quasi SEO und ein bisschen aus der SEO-Bubble rauszudenken. Man optimiert nicht für die Suchmaschine, genau wie man nicht für ein LLM optimiert. Man optimiert immer für den User. Am Ende kriege ich quasi die Quittung, wenn ich die Leute auf meine Seite lotse und die bouncen wieder. Weil das ist genau das Signal dann für alle diese Systeme, zu sagen, okay, die Seite ist Schrott, die hat die Frage nicht beantwortet. Das heißt, am Ende Wertet immer der User und er wertet es auch, indem er das Kontaktformular ausfüllt und dich anruft und sagt, ich möchte jetzt die Software kaufen, wenn wir bei dem Beispiel bleiben. Das heißt, SEO und UX-Teams zusammenschmeißen. Das sind keine zwei Disziplinen, das sind eine. Nummer zwei, wirklich regelmäßig mal in seinen Google Analytics reinzuschauen und sich einfach anzugucken, welche dieser Inhalte zahlen. überhaupt 0% Miete. Also einfach weniger zu machen. Ich weiß, voll unpopular. Weil du könntest jetzt mit AI-Content hunderttausendmal mehr Content produzieren. Die Frage ist, bringt es was? Mach lieber mehr, besseren Content, der wirklich hyperpersonalisiert, einen wirklichen Neat erfüllt, statt jetzt nochmal drei Themencluster aufzumachen, für die ich sowieso kein gutes Offer habe hinten raus im Vertrieb. Ja, ich würde auch in dem Kontext, wo man ein bisschen diesen FOMO empfindet, jetzt irgendwie, wenn es Search Everywhere heißt, auf jedem Ding mitzutanzen. Nee, wirklich klassisch Content-Marketing-Strategie zu sagen, wo ist der höchste Economic Value? Also auf welchen Plattformen muss ich welche Hausaufgaben machen, um wettbewerbsfähig zu sein? und wo kann ich mich eben differenzieren? Weil wie Hamid schon gesagt hat, ein Podcast oder ein Blog helfen halt einfach, gibt es auch Untersuchungen in den USA, dass du 200% mehr Branded Traffic hast. Und Branded Traffic wiederum ist das größte Rankingsignal bei Google. Und am Ende, wenn du dann deine Marke verkaufen willst, ist Branded Traffic auch ein guter Indikator dafür, wie arg dich quasi am Ende deine Kunden mögen. Also am Ende ist es vielleicht einfach ein Kreislauf davon, dass du viele Dinge machst. Barrierefreiheit hat ja auch Hamid ein paar Punkte angesprochen, die du einfach ohnehin machen solltest. Und am Ende kriegst du halt die Quittung, an der einen oder anderen Front. Aber wenn du wenig Ressourcen hast, gilt halt immer das Prinzip, wo ist denn der größte Hebel für die wenigste Zeit, die ich investiere.

Joel Kaczmarek: Ja, cool, ihr beiden. Ansonsten bleibt ihr noch festzuhalten, dass auch eure Seite, die ihr eingerichtet habt, natürlich ein guter erster Schritt ist, suche.ki. Also können wir uns ja auch nochmal ein bisschen umgucken, alle, die wir jetzt zugehört haben. Und ansonsten erstmal ganz herzlichen Dank. Also ich werde mal drüber nachdenken, ob ich euch nicht öfters mal hier in Sachen KI-Themen einladen werde, befragen, löchern und so. Also es gibt ja noch viel zu entdecken. Von daher erstmal vielen, vielen Dank an euch.

Paul Krauss: Danke dir, Joel. Hat Spaß gemacht.

Mehr zum Thema

Künstliche Intelligenz

Diese Episode dreht sich schwerpunktmäßig um Künstliche Intelligenz: Nachdem wir anfangs Erik Pfannmöller von Solvemate regelmäßig vor dem Mikro hatten, um dich zum Profi für Künstliche Intelligenz zu machen, diskutierten wir mit Rasmus Rothe (Merantix) und Jasper Masemann (HV Ventures) über dieses innovative Thema. Mittlerweile haben wir wechselnde Gesprächspartner um dem spannenden Thema KI auf den Grund zu gehen.