Dieses Transkript wurde maschinell erstellt. Wenn dir ein Fehler auffällt, schreib uns gerne zu diesem unter redaktion@digitalkompakt.de.
Erik Pfannmöller: Hallo und herzlich willkommen zu einem neuen AI Unplugged Podcast von digitalkompakt.de. Mein Name ist Erik Pfannmöller, Gründer und CEO von SolveMate. Wie ihr wisst, SolveMate automatisiert Kundensupport und unsere KI-basierte Plattform bietet virtuelle Assistenten, manche nennen sie auch Chatbots, mit denen Endkunden ihre Kundenanfragen in Sekundenschnelle 24 Stunden am Tag selbst lösen können. Wie immer bei AI Unplugged erklären wir Alltagsthemen rund um das Thema KI einfach und für jedermann verständlich erklärt. Heute geht es um ein ganz besonderes Thema, das jeder von uns kennt, nämlich das Thema E-Commerce. Dazu habe ich einen sehr erfahrenen Gast bei mir. Herzlich willkommen, Robin Müller, aktuell CTO vom Tagesspiegel. Aber Robin, warum bist du eigentlich heute hier?
Robin Müller: Hallo Erik, ich bin heute hier, weil ich mich die letzten sieben Jahre als CTO im E-Commerce-Bereich sehr intensiv mit Machine Learning und AI-Themen auseinandergesetzt habe. Das natürlich immer mit einem möglichst tiefen Nutzerfokus, um die Nutzerjourney spannender und am Ende natürlich die Conversion Rate höher ausfallen zu lassen.
Erik Pfannmöller: Das klingt gut. Herzlich willkommen. Da freue ich mich auf ein Gespräch mit sehr viel Expertise. Wir starten durch. E-Commerce ist ja ein ganz großes Thema und jeder von uns hat tagtäglich mit E-Commerce zu tun. Willst du uns mal einen kurzen Überblick geben, was es eigentlich für Themen im E-Commerce gibt, bei denen KI eigentlich Einzug hält? Und dann schauen wir, wo wir da noch tiefer reingehen.
Robin Müller: Also wenn wir das Thema E-Commerce im Rahmen von AI und Machine Learning anschauen wollen, dann macht es glaube ich Sinn, wenn wir uns an der User Journey langhangeln. Das heißt, ganz am Anfang habe ich Acquisition. Ich muss den Nutzer irgendwie auf meine Seite bekommen, was im Regelfall durch Marketing passiert. Dann kommt der Nutzer auf unsere Seite. In dem Moment wissen wir noch nicht sonderlich viel, außer es ist ein wiederkehrender Besucher. Dann geht es vor allen Dingen darum, welchen Content spiele ich meinem Nutzer denn aus. Das heißt, im E-Commerce geht es meistens um Produkte, die der Nutzer kauft. Das heißt, welche Produkte zeige ich ihm, vielleicht welche Marken und welchen Banner-Content. Dann steht der Kaufprozess. Im Kaufprozess selber hat man dann ein bisschen Optimierungspotenzial, die Conversion-Rate zu steigern, indem man einfach gewisse Sachen automatisiert und bequemer gestaltet. und vielleicht auch Thema Fraud, also Betrugserkennung, kann man nochmal ein bisschen beleuchten. Und nachdem der Kauf dann durchgeführt ist, hat man den ganzen Post-Sale-Bereich und Retention-Bereich. Das heißt, auf der einen Seite kann es natürlich Customer Care-Anfragen geben. Das können Tickets sein, wo man vielleicht eine Textanalyse durchführt, können Anrufe sein. Und dann im Marketing-Retention-Bereich natürlich wieder, wenn ich den Nutzer mit weiteren Content bespiele, Push-Notifications, Newsletter, welchen Content spiele ich dem Nutzer da aus und vor allen Dingen in welchem Moment.
Erik Pfannmöller: Das ist ja spannend. Das heißt, über die gesamte User-Journey habe ich jetzt verstanden, kann man eigentlich mit Algorithmen optimieren, was ja interessanterweise auch das Kernthema von AR & Plugged ist, dass wir nämlich uns ganz viele verschiedene Themen anschauen, die nacheinander beleuchten. Ich würde mich heute gerne auf das Thema sozusagen Website und Content-Ausspielung fokussieren, um einfach mal zu überlegen, wenn ich auf eine Website gehe, was ist daran eigentlich dynamisch, was sind Algorithmen, sind die statisch oder sind die dynamisch? Und das ist, glaube ich, so der Fokus, den ich heute legen würde. Deswegen die Frage an dich, sind e-Kümmers-Websiten heute statisch, dynamisch und Was gibt es da eigentlich für Algorithmen?
Robin Müller: Der Trend geht ganz klar dahin, dass immer mehr Inhalte dynamisch ausgespielt werden. Das hat verschiedene Ursachen. Zum einen mittlerweile durch verschiedene Clouds ist es deutlich einfacher, große Datenmengen zu verarbeiten und damit dann Dinge anfangen zu können. Das heißt, erstmal per se kann man viel mehr wegspeichern und aus diesen Daten dann Muster erkennen und daraufhin dem Nutzer dann gewisse Vorschläge machen. Andererseits ist sicherlich der Traffic und die Gerätevielfalt heute nochmal deutlich höher als es früher war. Das heißt, in dem Moment kann ich, wenn ich mehr Traffic habe, mit diesen Daten auch wieder viel individueller die Nutzersache ausspielen.
Erik Pfannmöller: Ein ganz konkretes Beispiel. Ich gehe auf eine Website und ich bin auf meinem Smartphone oder ich bin auf dem Desktop unterwegs. Sehe ich die gleiche Website?
Robin Müller: Per se von der Bildschirmauflösung her? halt erstmal nicht. Früher war es schon Standard, dass du einfach denselben Content vielleicht schon mobil optimiert gesehen hast. Heute würde ich mal davon ausgehen, wenn es gut gemacht ist und du auf beiden Geräten als derselbe Nutzer erkannt wirst, dann ja. Wenn das noch nicht möglich war, weil du zum Beispiel nicht eingeloggt warst oder deine beiden User Journeys oder deine beiden Sessions, die du einmal auf dem Desktop und einmal auf dem Mobilgerät hattest, noch nicht zusammengeführt worden sind, hast du dich da mit sehr hoher Wahrscheinlichkeit verschieden verhalten. Das heißt, du hast dir verschiedene Produkte angesehen. Dann wirst du vermutlich verschiedenen Content sehen. Und erst in dem Moment, wo deine Profile miteinander verknüpft werden, bekommst du dann den Content, der auf Basis beider User Journeys für dich ausgerechnet wird.
Erik Pfannmöller: Spannend. Viele sprechen über das Thema Recommendations. Ich gehe auf die Amazon-Webseite und da steht immer, wir empfehlen für Sie. Das heißt, Recommendations ist sicherlich eines der wichtigen Themen, um die es dabei algorithmisch geht. Was sind die wichtigsten Themen beim Thema Content ausspielen, also auf Webseiten?
Robin Müller: Amazon ist ein schönes Beispiel, weil das immer der umstrittene Anbieter im Bereich Recommendations ist. Weil viele Leute sagen, das passt nicht, ich habe gerade einen Staubsauger gekauft, warum bekomme ich noch fünf Staubsauger empfohlen? Das Rätsel würde ich auch irgendwann gerne mal lösen. Ich kann mir nicht vorstellen, dass ein Unternehmen wie Amazon das nicht sinnvoll getestet hat. Also vielleicht wissen die irgendwas, was wir alle noch nicht wissen. Generell würde ich aber sagen, kann man es erstmal in zwei große Bereiche runterbrechen. Das eine ist die konkrete Produktempfehlung. Das heißt, ich empfehle dem Nutzer auf Basis der Produkte, die er vorher gesehen hat, ein ganz konkretes Produkt. Und das andere ist die Optimierung von Suche- und Produktlisten. Das heißt, auf welchen Positionen zeige ich gewisse Produkte an.
Erik Pfannmöller: Steigen wir doch einfach mal in beide Teile ein. Das finde ich interessant. Also wir sind nochmal, um die Hierarchie richtig zu machen, die User Journey im E-Commerce. Da gibt es Marketing, da gibt es die Website, das heißt den Kaufprozess an sich. Es gibt den Post-Sale und dann auch BD Retention, das heißt, wo es um Kundensupport orientiertes Marketing geht im Bereich CRM. Wir befinden uns jetzt auf der Website und haben zwei große Kategorien entdeckt. Einmal das Thema Produkt Recommendations und natürlich auch Produktlistenoptimierung. Und Robin, wie funktioniert das mit Produktempfehlungen?
Robin Müller: Genau, steigen wir mal in die Produktempfehlung ein zuallererst. Das ist, glaube ich, ein bisschen greifbarer, das Thema, wenn man immer von einem konkreten Produkt ausgeht oder von mehreren konkreten Produkten, die sich ein Nutzer angeschaut hat. Dann unterscheidet man ganz high level erstmal in zwei verschiedene Arten, ein Produkt zu empfehlen. Das eine ist das sogenannte Content-Based Filtering. Das heißt, es werden Produkte empfohlen, die inhaltlich ähnlich zu den bereits betrachteten Produkten sind. Beispiel, wie ist das Produkt kategorisiert? Was für eine Farbe hat das Produkt? Was ist das überhaupt für ein Produkt? Ist das für Frauen oder für Männer? Oder, das gibt es mittlerweile auch von verschiedenen Anbietern, das nicht auf Basis der Metadaten eines Produkts zu machen, sondern auf Basis des Produktbildes. Das heißt, es werden im Prinzip Bilder miteinander verglichen und es werden Produkte empfohlen, die ähnlich aussehen. Das war das Content-Based Filtering. Das zweite ist das Collaborative Filtering. Das heißt, ich sehe Produkte, die Nutzer, die sich ähnliche Produkte wie ich angesehen oder sogar gekauft haben, verstärkt. Also im Prinzip auf Nutzerverhalten. Das wäre so der klassische Netflix-Fall eigentlich. Nutzer, die X angeschaut haben, haben auch Y angeschaut.
Erik Pfannmöller: Das ist schon der erste gute Querverweis zu einer anderen Episode, wo wir auch über Netflix und Personalisierung im Internet gesprochen haben. Die letzte Episode, um ganz genau zu sein. Und ich würde nochmal quer verweisen auf unsere erste Episode, wo wir über das Machine Learning Modell gesprochen haben. Wir haben gesagt, es gibt bestimmte Daten, die mit einem Algorithmus zu einem Modell zusammengecruncht werden. Das Modell, das die Realwelt approximiert und dann die Echtzeitdaten nimmt und daraus eine Vorhersage macht. Und kannst du dann auf diesem Modell einfach mal erklären, jetzt an einem ganz konkreten Beispiel, wie das zum Beispiel bei einem Content-basierter Produkt Recommendation funktionieren würde?
Robin Müller: Ich glaube, am einfachsten kann man sich das vorstellen, wenn man sich das als Koordinatensystem vorstellt. Und da sagen wir, wir haben auf der einen Dimension die Farbe des Produkts, auf der anderen Dimension den Produkttyp. Und sagen, der Produkttyp ist jetzt ein T-Shirt oder ist eine Hose. Farbe, grau, blau, rot, was auch immer. Und dann würde man im Prinzip Produkte, die sich im Koordinatensystem an ähnlichen Stellen befinden, also eine graue Hose wäre wahrscheinlich immer an derselben Stelle. Wenn man das jetzt noch mit viel mehr Attributen macht, dann wird es halt komplexer, aber es würden sich halt entsprechend gewisse Cluster bilden und Sachen, die da in einem Cluster sich befinden, die sind ähnlich.
Erik Pfannmöller: Und die ganzen Daten würdest du mit einem Algorithmus zu einem Modell zusammendampfen. Und wenn ich dann auf die Website gehe, dann klicke ich auf eine graue Hose und dann wird mir diese Produkte, können sie auch empfehlen, zum Beispiel auch eine graue Hose empfohlen. Das heißt sozusagen der Echtzeit-Klick, den ich mache. Sehe ich dann zum Beispiel im Warenkorb, was ein Signal sein könnte, diese Produkte könnten dir auch gefallen, weil du mir natürlich noch ein Produkt verkaufen würdest.
Robin Müller: Genau, und das ist ein ganz gutes Beispiel, weil es ist content-based. Das heißt, alle Nutzer, die dieses graue T-Shirt anschauen würden, würden dann exakt dieselben anderen Produkte sehen. In einem gewissen Zeitverlauf natürlich, wenn das ungefähr im selben Moment passieren würde. So ein Modell trainiert man ja regelmäßig neu. Das heißt, man lernt dazu, es kommen neue Produkte hinzu, es fallen gewisse Produkte raus. Das heißt, wenn man aber ungefähr im selben Moment schauen würde, wäre das dann für alle Nutzer gleich, weil es content-based ist und nicht collaborative.
Erik Pfannmöller: Da komme ich gleich drauf zu. Ich würde kurz auf das Thema, das Modell ist ja eigentlich dynamisch hinzukommen. Du hast gerade gesagt, es kommen Produkte hinzu. Warum verändert sich da das Modell?
Robin Müller: Ganz banal, weil neue Erkenntnisse hinzugekommen sind. Das heißt, man lässt ja da im Regelfall nicht nur so ganz einfache Attribute einfließen, wie ist das grau und ist das ein T-Shirt, sondern gut sortierter E-Commerce-Shop im Fashion-Bereich, vielleicht 100 graue T-Shirts, vielleicht mehrere hundert. Das heißt, diejenigen, die ich empfehlen würde, wären wahrscheinlich Produkte, die sich gut verkaufen, die eine niedrigere Retourenrate haben, die vielleicht auch von, wenn ein Nutzer zuallererst ein bestimmtes graues T-Shirt angeguckt hat, sind das dann vielleicht andere Produkte, als wenn er ein anderes angeguckt hat, weil es vielleicht einen Print hat oder nicht. Das heißt, genau da haben wir schon dynamische Aspekte. Das heißt, eine Retourenrate verändert sich, ein Preis verändert sich und dementsprechend verändert sich dann das Modell oder was da ausgespielt wird.
Erik Pfannmöller: Das ist spannend. Das heißt, du hast einmal statische Daten, wie zum Beispiel, ich kriege ein neues Produkt. Wir werden mal bei den 100 grauen T-Shirts. Ich kriege das 100 in erste graue T-Shirt rein. Das könnte ja auch eine Recommendation sein im Warenkorb zum Beispiel. Aber gleichzeitig hast du auch einen Machine Learning Loop. Das heißt, wenn viele Kunden ein bestimmtes T-Shirt kaufen, dann würde das wahrscheinlich ausgespielt werden, weil es ein Power-Seller ist und der Shop natürlich Umsatz machen will. Ist das so, dass es dann automatisch einen Feedback-Loop gibt? Und wie oft wird er neu berechnet? Wie funktioniert so etwas?
Robin Müller: Das kommt ein bisschen auf die Lösung an, die man gewählt hat. Es gibt einmal Varianten, wo man wirklich konkret ein Modell berechnet und dieses Modell dann mit neuen Trainingsdaten wieder neu berechnen muss. Und dann gibt es Fälle, da geht es ein bisschen in Richtung Reinforcement Learning. Reinforcement Learning bedeutet, es gibt eine Nutzenfunktion, Funktionen und es gibt gewisse Signale. Also wenn jemand was in Warenkorb legt, ist das schon mal ein gutes Signal. Wenn jemand was kauft, ist das noch ein viel besseres Signal oder ein stärkeres Signal. Wenn jemand was retourniert, ist es vielleicht ein negatives Signal. Und genau das ist das Reinforcement. Genau damit wird der Algorithmus permanent neu antrainiert. Ein ganz klassisches Beispiel davon, auch außerhalb vom E-Commerce-Space, ist ein Staubsaugerroboter. Der, wenn er gegen ein Hindernis fährt, ist das ein negatives Signal und dann markiert er sich das auf seiner internen Karte quasi als, da fahre ich nicht mehr hin. Und wenn er an der Stelle immer vorbeikommt, dann ist das gut. Also so mappt er im Prinzip deinen Raum und wenn du in einen anderen Raum setzt, dann muss er das halt erstmal neu lernen.
Erik Pfannmöller: Für unsere aufmerksamen Hörer an dieser Stelle der kleine Querverweis zu Folge 1 unserer Serie, wo wir über das Thema Supervised Learning, Unsupervised Learning und Reinforcement Learning schon gesprochen haben. Einfach nochmal Folge 1 reinhören und ansonsten, das ist ja spannend. Das heißt, im Reinforcement Learning lernt der Algorithmus dazu, indem er sich ja sozusagen selbst ein bisschen trainiert, weil er ja auch Vorschläge macht, die dann wiederum dazu führen, dass Produkte gekauft werden.
Robin Müller: Genau, das ist sogar ein extrem spannender Hinweis. Weil was manchmal passiert ist, man benutzt so ein Recommender-System oder einen Algorithmus oder ein Modell, was dann ein gewisses Ergebnis rausgibt. Und mal angenommen, das System gibt einem zehn Ergebnisse raus. Ich zeige dem Nutzer aber nur fünf, weil ich nicht genug Platz habe. Dann kann das, je nach System, wie es aufgebaut ist, das weiß man manchmal eben nicht genau, weil man es sich vielleicht einkauft, kann das schon reichen als ein negatives Signal. Das heißt unbewusst. einfach dadurch, weil irgendwann mal ein Entwickler oder ein Produktmanager entschieden hat, wir bekommen zwar 10 Recommendations, zeige aber nur 5 an, kann das für diese 5 Produkte, die ich dann nicht anzeige, ein negatives Signal sein. Das heißt, da muss man auch ein bisschen aufpassen, wenn man das einbaut, wie macht man das? Sende ich vielleicht unbewusst negative Signale und werte damit gewisse Produkte ab.
Erik Pfannmöller: Was ja eigentlich eine Algorithmus inhärent des Problems. Das heißt, innerhalb der Recommendation habe ich schon eine Rangfolge, weil ich ja ein Produkt, ich sage jetzt mal die typische Warenkorb-Empfehlung, muss ich mich entscheiden, was ist das, das links oben steht? Das ist das erste, die beste Empfehlung. Das heißt, die Reihenfolge an sich beeinflusst ja schon den Algorithmus.
Robin Müller: Genau, also im Regelfall gibt er die Ergebnisse ja in der Reihenfolge raus und die sollte ich dann auch so weitestgehend übernehmen. Wie gesagt, man weiß manchmal nicht, was drinsteckt. Man hat es ja oft nicht selbst gebaut, sondern kauft sich das halt von Leuten ein, die das besser können, als man das selber kann. Und genau an der Stelle, wenn es eine Blackbox ist, sollte man einfach versuchen, so nah wie möglich an den Vorgaben dann lang zu hangeln, um nicht unbewusst irgendwelche negativen Signale zu senden.
Erik Pfannmöller: Das ist ein spannendes Stichwort, das Thema Make-or-Buy und algorithmische Blackbox. Ich würde das mal kurz nach hinten packen, dass wir da gleich nochmal drüber sprechen. Du hattest vorhin so ein ganz tolles Wort gesagt, nämlich kollaborativer Algorithmus. Und zwar waren wir im Bereich Produktempfehlungen. Du hast gesagt, es gibt Content, also Content-basierte Produktempfehlungen, die sozusagen für alle gleich ist. Im Sinne von, zu dem grauen T-Shirt, das du im Warenkorb hast, gehört das. Und du hast vorhin auch kollaborative Algorithmen gesagt. Was ist denn damit gemeint?
Robin Müller: Genau, also klassisches Collaborative Filtering basiert halt eben genau darauf, Nutzer A hat irgendwas getan, also er hat sich drei Produkte angeguckt und hat dann eins davon gekauft. Und Nutzer B kommt irgendwann später und verhält sich genauso und guckt sich vielleicht genau dieselben drei Produkte an. Heißt, was der Algorithmus an der Stelle erkennt, okay, es gibt einen Nutzer, der sich ähnlich verhalten hat wie jemand anders vorher. Und er hat dann am Ende das gekauft oder vielleicht später in der zweiten Session nochmal ein anderes Produkt gekauft. Das heißt, genau das bekommst du dann empfohlen. Ganz vereinfacht dargestellt. Natürlich wird es selten jemanden geben, der exakt genau dasselbe Profil hat, aber je nachdem, wie nah man rankommt, funktioniert das dann so.
Erik Pfannmöller: Das ist interessant. Das ist sozusagen wie so eine Art statistischen Zwilling. Du hast es vorhin Netflix gesagt, weil jeder versteht, wenn du gerne Star Wars schaust, dann ist es vielleicht sehr wahrscheinlich, dass du auch andere Science-Fiction-Filme magst, weil Netflix weiß, dass andere Nutzer, die ganz viele verschiedene Science-Fiction-Filme anschauen, auch Star Wars mögen und statistische Zwillinge bauen. Und das funktioniert natürlich auch im E-Commerce, habe ich jetzt verstanden. Ist das richtig?
Robin Müller: Genau, im Prinzip funktioniert es genauso. Du kaufst bestimmte Produkte gern, graue T-Shirts und Nutzer, die gern graue T-Shirts kaufen, kaufen vielleicht gern schwarze Hosen dazu. Also kriegst du schwarze Hosen.
Erik Pfannmöller: Mir fällt noch ein, ist das sozusagen nur auf die Website relevant? Weil manchmal kriege ich so eine E-Mail von Amazon, nachdem ich was gekauft habe, hey, diese Produkte können Ihnen auch gefallen möglicherweise. Ist das das gleiche Prinzip und kann man das auch asynchron machen oder geht das nur in Echtzeit?
Robin Müller: Wenn man den Königsweg geht, basiert es tatsächlich genau auf denselben Daten. Was oft in der Realität passiert, ist, dass man einfach zwei verschiedene Tracking-Systeme mitlaufen hat. Man hat ein Recommender-System, was auf der Website benutzt wird, und ein Recommender-System für die E-Mails. Es gibt mittlerweile aber mehr und mehr Anbieter, die in ihren CRM-Systemen eben Recommender-Systeme integriert haben, die auch auf der Website funktionieren. Und im besten Fall nutzt man dann genau das, weil dann benutzt man denselben Datenbestand, um dem Nutzer Sachen zu empfehlen.
Erik Pfannmöller: Das muss ich nochmal zusammenfassen. Das heißt, du hast Recommender-System und CRM-System benutzt. Versuch das mal für einen ganz normalen Menschen verständlich zu machen, wer eigentlich die Daten hatte, was da gerade passiert.
Robin Müller: Genau, also CRM-System, jetzt mal im einfachsten Fall, bekommt das ein paar Nutzerdaten und schickt am Ende die E-Mail-Newsletter oder vielleicht auch die Transaktions-E-Mails, also Kaufbestätigung, Versandbestätigung, vielleicht auch eine Feedback-E-Mail hinterher, in der man nochmal fragt, was auch ein starkes Signal ist übrigens, was man berücksichtigen kann in gewissen Fällen. Die moderneren oder mittlerweile eigentlich fast alle CRM-Systeme können auch Push-Notifications, also App-Pushes, Browser-Push-Notifications und sind dann in der Lage, weil sie natürlich auch Daten aus dem Produktkatalog haben, diese Daten aus dem Produktkatalog nutzerspezifisch in E-Mails auszuspielen. Und dann gibt es da, wie gesagt, wieder in den einfachen Systemen sind das vielleicht nur Produktinformationen. Also empfiehlt dem Nutzer vielleicht fünf Produkte oder sechs Produkte in der E-Mail. Wenn man es dann nochmal einen Schritt weiter trägt, kann es natürlich auch ein Banner sein. Also was ist das Mood-Banner in der E-Mail, wenn man die öffnet? Sind da sofort fünf Produkte oder kommt erstmal ein Mood-Banner? Mit welchem Betreff benutzt man das und welche Uhrzeit wird das versendet? Das sind alles Themen, die man mit KI machen kann. Besonders die Banner sind dann aber auch eigentlich wieder ein Recommender-System. Und wenn man es richtig gut macht, dann stimmt man die eigentlich noch auf die Produkt-Recommendations ab. Das heißt, ich habe nicht oben irgendwie ein Modell, was ich für die Banner nur trainiert habe, unten habe ich ein Modell, was ich für die Produkte trainiert habe, weil das dann unter Umständen einfach nicht zusammenpassen kann. Wenn ich oben dem Nutzer einen Banner von einem bekannten Word-Artikel-Hersteller aus Deutschland ausspiele und dann nur unten drunter Produkte von einem Konkurrenten aus den USA, passt der Content eigentlich irgendwie nicht so richtig zusammen.
Erik Pfannmöller: Also das von Nike? Zum Beispiel, ja.
Robin Müller: Okay, also Markennennung ist hier okay.
Erik Pfannmöller: Das ist immer ganz neutral, ganz politisch korrekt. Also oben wird Adidas ausgespielt und Nike, das ist vielleicht doof, wenn zwei Recommender-Systeme innerhalb einer E-Mail, die mir geschickt wird, eigentlich konfliktäre Predictions machen, weil ich ja eigentlich nur eine Datenbank haben sollte oder nur einen Hauptalgorithmus, der idealerweise die komplette E-Mail, die ich geschickt kriege, mit Kaufempfehlungen individualisiert.
Robin Müller: Ja, es kann halt einfach Nebeneffekte erzeugen, die vielleicht nicht gewünscht sind, wenn man das nicht so macht. Also ein aktuelles Pressebeispiel, man regt sich über die Immobilienpreise in Berlin auf und unten drunter ist eine Ad von einem Immobilienmakler. Also es passt halt irgendwie nicht zusammen, passiert aber immer wieder. Ich glaube, genauso kann es im E-Commerce halt passieren, dass einfach Content nicht zusammenpasst und dann die gesamte User Experience einfach leidet oder vielleicht nicht so ideal ist, wie sie sein könnte. Wir wählen hier übrigens immer das graue T-Shirt, weil Erik mir einen grauen Selfmade-T-Shirt gegenüberstellt.
Erik Pfannmöller: Dankeschön. Robin, wir sprechen auch über E-Commerce, weil was ich vor so oft mitgemacht habe, ich habe meine E-Commerce-Firma gegründet und die vier Jahre als CEO geführt und kenne mich deswegen im Thema E-Commerce auch recht gut aus. Deswegen ist heute ein technischerer Deep Dive über das Thema. Ich muss übrigens zufügen, Robin sitzt mir in einem grauen Pullover gegenüber, einfarbig, ohne Beschriftung. Das heißt, heute sind die grauen T-Shirts sozusagen Teil der Episode, weil wir beide in grau gegenüber sitzen. Nochmal zusammenfassend, wir haben über das Thema Recommender-Algorithmus gesprochen. Das ist im E-Commerce ganz wichtig, weil ich natürlich gerne viele Produkte verkaufen will. Nicht nur ein graues T-Shirt, sondern noch ein zweites graues T-Shirt oder noch das passende Outfit oder den Hosenanzug. Und das ist was Interessantes, was wir auch schon in der Folge um Personalisierung hatten. Das heißt, es geht um Personalisierung vom E-Commerce und Produkt-Recommendations einmal sozusagen Content-basiert, das heißt auf Basis von Attributen. Oder auch von Bildern, darüber haben wir jetzt gar nicht gesprochen. Geht aber auch, wenn ich den roten Pump habe, dann kann ich aus den anderen 10.000 Schuhen auch den anderen roten ähnlichen rausfinden. Das heißt einerseits produktfokussiert, zum Beispiel Attribute wie Farbe, Größe, sonstige Themen. Oder auch wie oft es gekauft oder retourniert wurde. Und dann kollaboratives Filtern, wenn ich das richtig verstanden habe. Das heißt anhand der Verhalten von echten Nutzerdaten, so wie bei der Netflix Recommendation, rauszufinden Wenn Robin heute die Schuhe kauft, dann sind Kunden wie Robin, kaufen vielleicht morgen Hosen dazu. Das ist interessant. Das ist ein großer Teil von Produktrecommendations im E-Commerce. Du hattest vorhin gesagt noch das Thema Listen und Suche. Das ist ein ganz wichtiger Bereich. Also wenn ich, muss ich ehrlich zugeben, auf eine Website gehe, auf das große Z, das große Zalando Z, dann ist es oft so, dass ich gar nicht mehr die Kategorien mag, sondern dass ich einfach Dinge erstens suche und dann halt eine ganz große Ergebnisliste kriege. Kannst du da vielleicht ein bisschen aus dem Nähkästchen plaudern?
Robin Müller: Klar, sehr gerne. Also auf der einen Seite, je nach Fokus der Seite, ist Suche halt mehr oder weniger wichtig. Manche Seiten machen das ja auch sehr gut, dass sie mittlerweile eher so in fertige Outfits und in dieses Story-Format gehen. Würde ich jetzt aber mal außen vor lassen. Suche ist nach wie vor ein extrem spannendes Thema im E-Commerce. Und Suche ist oft eng gekoppelt mit Produktlisten. Also ich kann nach einem Artikel suchen, ich kann mich aber natürlich auch im Kategoriebaum durch die Listen klicken, bis ich da rauskomme, wo ich ungefähr hin will. Und diese Listen kann man jetzt entweder, so war das früher, für alle Nutzer gleich sortieren. Oder man sagt, okay, der Nutzer hat schon ein gewisses Verhalten hier an den Tag gelegt auf der Seite und hat gewisse Sachen geklickt und gewisse Sachen ignoriert. Und ich lasse diese Informationen einfach mal reinfließen.
Erik Pfannmöller: Das heißt, du willst die Produktliste anhand meiner Klicks auf der Website in Echtzeit anpassen. Habe ich das richtig verstanden?
Robin Müller: Genau. Im Prinzip sollte genau das passieren, im besten Fall. Das heißt, in meiner Historie, ich habe unter anderem Lesara mitgegründet und das war eines der größeren letzten Projekte, die ich noch mit begleitet habe, war genau dieses Thema Produktlistensortierung. Da haben wir mit einem sehr einfachen Worf angefangen und haben uns dann gesagt, okay, das können wir wahrscheinlich noch besser und wir haben es User DNA genannt, also im Prinzip versucht, das Nutzerverhalten in mehreren Bereichen so gut wie möglich zu mappen. Und wir sind dann erstmal davon ausgegangen, okay, es kommt zunächst mal ein Nutzer, über den wir gar nichts wissen, das ist ein anonymer Besucher unserer Website und der macht vielleicht zwei, drei Klicks und dann kriegen wir es vielleicht sogar hin, um Erlaubnis zu fragen, dass wir ihm App- oder Web-Push-Notifications schicken können. Das heißt, du musst da nicht angemeldet sein, wenn du so eine Push bekommst. Das ist so ein großer Unterschied. Und um diese Push möglichst gut personalisieren zu können, sollte man natürlich die Sachen da einfließen lassen und dasselbe gilt für die Listen. Und da ist man, wenn man das ganz gut macht, nach zwei, drei Klicks durchaus in der Lage, mit sehr hoher Wahrscheinlichkeit, also 90, 95 oder 98 Prozent zu sagen, ist dieser Besucher männlich oder weiblich? Oder hat er sich für männliche oder weibliche Produkte interessiert?
Erik Pfannmöller: Das ist ja spannend. Versuchen wir mal zu beschreiben, wie das Modell funktioniert. Du nimmst historische Daten und willst, wenn ich jetzt auf Lesara oder einen anderen Shop gehe, nach drei Klicks wissen, ob ich Mann oder Frau bin, mit einer gewissen Wahrscheinlichkeit. Natürlich gibt es immer eine Fehlerrate. Wie macht man das? Beschreib mal, wie habt ihr das Modell trainiert? Welche Daten sind da eingeflossen?
Robin Müller: Wir haben das tatsächlich mit drei verschiedenen Learning-Ansätzen probiert. Wir haben es mit einem neuronalen Netz probiert. Das kommt mittlerweile immer häufiger. Das ist eigentlich, wenn man AI sagt, meint man eigentlich oft neuronale Netze. Wir haben das mit einem ganz klassischen Bayes-Algorithmus gemacht und wir haben das einmal mit so einer Art Baumstruktur versucht. Und am Ende sind wir mit allen drei Varianten zu einem relativ ähnlichen Ergebnis gekommen, aber mit unterschiedlichen Computation-Kosten. Ein neuronales Netz ist ein bisschen aufwendiger als ein Baum, ist wieder aufwendiger als ein Bayes-Modell. Und ganz vereinfacht könnte man sagen, wir haben uns im Prinzip angeguckt. Am Anfang ist ja erstmal jeder Nutzer anonym. Wir haben uns angeguckt, wer hat was geklickt und dann gibt es gewisse Klickpfade. Am Ende kauft jemand irgendwann, also ein gewisser Prozentsatz der Nutzer kauft und das ist schon ausreichend, um zu sagen, okay, in dem Moment, wo die sich registriert haben, haben sie uns ja mitgeteilt, ob sie männlich oder weiblich sind, einfach weil wir danach gefragt haben. Das heißt, wir hatten ein ganz eindeutiges Wissen darüber. Dann haben wir gesagt, okay, Leute, die diese Seite und dann diese Seite und dann diese Seite geklickt haben, waren weiblich.
Erik Pfannmöller: Das ist interessant. Das heißt, um unseren Hörern mal den Flow der Daten zu erklären. Das heißt, ihr habt ein Modell gehabt, das war ein, in dem Falle Supervised Learning Algorithmus, weil ihr kanntet die Wahrheit, weil der Kunde am Ende gesagt hat im Checkout, hey, ich bin männlich oder weiblich. Meistens macht man dabei keine Fehler. Das heißt, ihr hattet recht gute Daten. und könntet sagen, Kunden, die so geklickt haben, sind männlich. Das heißt, das Modell hat aus den Rohdaten von, ich sage mal, zehntausenden Klicks und Bestellungen mit einem Algorithmus, du hast gerade drei verschiedene genannt, da gehe ich gleich noch drauf ein, ein Modell gemacht. Und wie habt ihr dann geprüft, welches der Modelle am besten ist?
Robin Müller: Was man dann im Normalfall macht, ist, man hat ein gewisses Set an Daten, wo man das schon weiß. Also ich habe jetzt, keine Ahnung, eine Million Klicks von 250.000 Nutzern. Das heißt, jeder ermittelt vier Klicks. Und von diesen 250.000 Nutzern weiß ich das Geschlecht, weil die sich am Ende registriert haben. Was man dann macht, man teilt im Normalfall diesen Datensatz auf in Trainingsdaten und Testdaten und trainiert dann mit den Trainingsdaten das Modell. Also ein üblicher Split sind irgendwas so zwei Drittel Trainingsdaten, ein Drittel Testdaten oder 70, 30, 80, 20. Es kommt ein bisschen immer darauf an, was man machen will. Mit diesen Trainingsdaten trainiert man das Modell und mit den Testdaten verifiziert man das Modell dann. Und dann hat man im Prinzip Eine Trefferquote und da man ja die Antwort schon weiß von diesen ein Drittel Testdaten, die ich noch habe, kann man verifizieren, wie gut ist mein Modell. Man macht das so, also man trainiert und testet nicht mit denselben Daten, weil da wird es immer treffen. Das ist halt null aussagekräftig. Mit anderen Daten kann man auch nicht testen, weil da weiß man ja das richtige Ergebnis nicht. Das heißt, deshalb muss man von den Daten, wo das Ergebnis schon bekannt ist, diese aufteilen.
Erik Pfannmöller: Das ist spannend. Das heißt, du hast gerade gesagt, ich übersetze das mal in einfache Worte. Ich nehme eine Viertelmillion Menschen oder Bestellungen, ganz viele Daten. Wir machen eine einfache Zahl, 100.000. Und von den 100.000 Bestellungen weiß ich, was die vorher geklickt haben. Und du sagst jetzt mal 70% davon, um ein System zu trainieren und die anderen 30%. Damit hat der Algorithmus erstmal gar nichts zu tun, sondern er nimmt dann nur die Klickpfade und soll dann vorhersagen, welches Geschlecht das ist. Er hat. Und was ihr dann gemacht habt, ihr habt die 70.000 Bestellungen und Klickpfade genommen und habt die, und jetzt ist es interessant, über drei verschiedene Algorithmen gejagt. Das ist also austauschbar. Die produzieren nur andere Ergebnisse. Und habt dann geprüft, welcher die höhere Trefferquote hat. Stimmt's?
Robin Müller: Genau das, ja.
Erik Pfannmöller: Das ist spannend. Und wer hat gewonnen?
Robin Müller: Am Ende tatsächlich der einfachste. Manchmal ist das so. Der Trend geht ja mehr und mehr dahin, auf alles ein neuronales Netz zu werfen. Kann man machen, ist manchmal aber nicht unbedingt der einfachste oder beste Weg zum Ziel. Genau deshalb haben wir halt den Vergleich gemacht. Und ich glaube, in ganz vielen Fällen macht es halt Sinn. Je nachdem, wie tief man in das Thema reingehen will, hat man ja verschiedene Möglichkeiten. Man kann jetzt entweder sagen, ich nehme mir jetzt selber irgendwie so ein TensorFlow. Das ist das Machine Learning Framework von Google. Da sind schon vortrainierte Sachen drin. Da kann man auch einfach sich eigene Modelle trainieren. Da muss man aber schon ein Stück tief rein, ja. Und wenn man es noch einfacher haben will, gibt es bei den einschlägigen Cloud-Anbietern, also Amazon mit Amazon Web Services, Google mit der Google Cloud oder auch Microsoft mit Azure, vortrainierte Modelle oder teilweise sogar noch einfache Sachen, wo man einfach sagen kann, ich gebe dir mal Daten und du sagst mir mal, welchen Ansatz du wählen würdest. Und da ist die Einstiegshürde für so einen Softwareentwickler noch mal viel niedriger. Man muss nicht unbedingt eine AI-Experte sein, um das zu tun. Manchmal kommt man mit den fertigen oder vorbereiteten Modellen schon sehr weit.
Erik Pfannmöller: Das ist eigentlich dann aber gar nicht schwierig. Man muss sich die Problemstellung überlegen, sagen, ich will vorher sagen, ist der Kunde männlich oder weiblich, weil ich das brauche, um meine Produktlisten auszuspielen. Dann messe ich die Daten. und dann sagst du, kann ich das jetzt hochladen, dieses Datenset und ein anderer Algorithmus sagt mir vorher, was wahrscheinlich der beste Algorithmus ist, mit dem ich mein Ziel erreiche.
Robin Müller: Im Prinzip schon, ja. Oder man weiß es vielleicht gar nicht, sondern man sagt einfach nur, gib mir mal eine Vorhersage. Also man gibt dem System eine gewisse Anzahl Trainingsdaten und dann gibt man ihm Testdaten und sagt, sag mir mal, was dann am Ende als Ergebnis rauskommen würde. Und das System sagt einem vielleicht gar nicht, welchen Algorithmus es wählen würde. Wenn man das mal ganz banal ausprobieren will, kann man das in Google Spreadsheets tun. Google hat nämlich den Machine Learning Algorithmus, den sie in der Google Cloud anbieten, auch in Spreadsheets angebunden. Kann man im Prinzip mal eine Excel-Datei hochladen und dann gewisse Daten als Trainingsdaten klassifizieren und sich dann für andere Daten Werte vorhersagen lassen. Irgendwie so. ein Literaturbeispiel ist dann immer, Immobilienpreise in gewissen Stadtteilen für gewisse Wohnungen, also Lage und Wohnungsgröße sind im Prinzip entscheidend und Zimmeranzahl sind so die drei Inputvariablen. Das System trainiert man dann mit einem Kaufpreis und für andere Eingabedaten, andere Zimmeranzahl in einem anderen Stadtteil kann man dann ungefähr einen Kaufpreis vorhersagen. Und das kann man im Google Spreadsheet selber ganz gut probieren. Wenn man einfach mal genau nach diesem Beispiel googelt, dann findet man genau das. Da ist irgendwie ein Blogpost dazu, dann kann man es mal ausprobieren.
Erik Pfannmöller: Das finde ich gut. Also unsere Hörer, bitte alle googeln Google Spreadsheets und mobilen Preisevorhersagen. Das ist spannend. Das habe ich selbst auch schon gemacht, als ich mich mit dem Thema auseinandergesetzt habe. Das ist ein sehr guter Artikel. Was ich gerade interessanterweise gelernt habe, ist, eigentlich ist der Algorithmus nur Mittel zum Zweck und austauschbar. Und das Ziel bei dir, du wolltest das Geschlecht herausfinden um die Produktlisten zu optimieren. Das war eines der wichtigen Signale. Und ihr habt das einfach knallhart mit verschiedenen Algorithmen gemacht. Und Learning war jetzt, man braucht nicht immer ein neuronales Netz, um Erfolg zu haben, sondern die Zielfunktion des Algorithmus war, wie oft er richtig lag.
Robin Müller: Genau, im Prinzip das. Wenn man sich jetzt mal wieder ein bisschen zum Use Case hingeht, warum ist das Geschlecht wichtig? Sagen wir mal, jemand kommt auf meine Startseite in meinem E-Commerce-Shop, klickt einen Banner, scrollt einmal in der Liste nach unten, klickt noch ein Produkt und dann benutzt der oder diejenige, Die Suche. Dann ist das Suchergebnis, wenn dann jemand nach grauen T-Shirts sucht, weiß ich immer noch nicht, ist die Person männlich oder weiblich. Dann, wenn ich aber diese drei Klicks schon habe und sage, ist wahrscheinlich mit 90%iger Wahrscheinlichkeit ist der Nutzer männlich, dann sortiere ich meine Suchergebnisse schon mal anders und sortiere männliche Produkte viel weiter nach oben oder bin vielleicht sogar, wenn ich mir sehr sicher bin, ganz hart und filter alle weiblichen Produkte in dem Moment schon mal raus. Und das heißt, ich habe so nach drei Klicks, wenn jemand dann die Suche benutzt, schon mal ein deutlich besseres Suchergebnis, als wenn ich einfach nur die Standardsuche benutzt hätte, wobei graue T-Shirts einfach nur nach inhaltlichen Attributen gesucht wird und dann steht vielleicht ein T-Shirt aus dem Damenbereich ganz oben.
Erik Pfannmöller: Um sozusagen das nochmal zusammenzufassen, warum ist es wichtig, im E-Commerce zum Beispiel Produktlisten zu optimieren? Weil ich nicht immer weiß, ob ich gerade männlich oder weiblich ein Kategoriebaum bin. und wenn ich eben drei Klicks mache, dann wäre es super gut zu wissen, ob ich männlich oder weiblich bin, weil man dann einfach männliche oder weibliche graue T-Shirts ausspielen kann, was die Conversion Rate erhöht, was sozusagen dazu führt, dass ich mit einer höheren Wahrscheinlichkeit kaufe, wenn ich die richtigen Produkte angezeigt werde, weil es einfach zu viele Produkte gibt, um die mir auf einem Bildschirm anzuzeigen. Deswegen will ich nur die besten für mich haben.
Robin Müller: Genau, am Ende geht es ja um Screentime. Also ich habe nur eine gewisse Aufmerksamkeitsspanne beim Nutzer und in dieser Zeit muss ich den Nutzer engaged halten. Und wenn ich den richtigen Content ausspiele, dann ist die Wahrscheinlichkeit einfach vielfach höher, dass der Nutzer engaged ist.
Erik Pfannmöller: Wir haben jetzt sehr viel über das Thema Recommendations und Produktlisten gemacht. bei deiner Zeit. Bei der Sarah, du hast gesagt, ihr habt die Produktlisten optimiert und ihr habt vorhergesagt das Geschlecht. Habt ihr noch mehr gemacht, um sozusagen die Produktlisten zu optimieren?
Robin Müller: Genau, wir haben uns am Anfang erst mal drei Bereiche rausgesucht. Das Geschlecht ist eine relativ simple Sache. Damit fangen wir mal an, weil wir damit schon einen relativ großen Teil erschlagen können. Da kannst du in deinem Traffic ja schon mal, je nachdem wie viele Männer und Frauen du als Besucher hast, ja schon mal da einen ganz guten Split hinbekommen und da den Leuten schon mal deutlich relevanteren Content anzeigen. Die zwei anderen Bereiche waren, wir haben versucht, den Modestil, den jemand bevorzugt, vorherzusagen. Und dabei nicht unbedingt nur einen, sondern wir haben in unserem Shop für uns 15 Modestile definiert gehabt. haben dann gesagt, okay, jemand mag diesen Modestil, haben wir aufgewertet und noch vielleicht einen anderen und noch einen anderen und zwei andere, die der Nutzer gar nicht geklickt hat und immer ignoriert hat, die haben wir abgewertet.
Erik Pfannmöller: Ein Beispiel für Modestil wäre?
Robin Müller: Sportlich, elegant, was auch immer, sexy, keine Ahnung.
Erik Pfannmöller: Da sagt der CTO zu mir, Modestil ist sexy.
Robin Müller: Na, du mit deinem grauen Self-Metik, auf jeden Fall.
Erik Pfannmöller: Das ist spannend. Alle, die jemals irgendwas mit Fashion zu tun gehabt haben, werden jetzt auf die Parakaten gehen, dass wir zwei keine Modestile kennen. Das macht aber nichts, ist nämlich vollkommen irrelevant für den Algorithmus. Aber Modestil sexy finde ich gut. Das heißt, du willst rausfinden, welchen Modestil man bevorzugt?
Robin Müller: Genau.
Erik Pfannmöller: Weil es ja ganz viele Typen von, es gibt vielleicht auch sexy graue T-Shirts.
Robin Müller: Vielleicht. Wenn die total körperbetont an Eric geschnitten sind, sind sie das vielleicht.
Erik Pfannmöller: Ja, wohlgemerkt, meins ist ein ganz normales Baumwoll-T-Shirt mit unserem tollen Logo drauf, Southmade. Okay, du willst den Modus hier rausfinden und das Geschlecht, um danach sozusagen die Liste zu optimieren.
Robin Müller: Genau, also wir haben uns dann tatsächlich noch ein drittes Attribut hergenommen. Wir haben gesagt, die Preissensitivität ist entscheidend. Also da muss man vielleicht noch die Positionierung ein bisschen angucken von Lesara. Wir haben uns schon eher im mittleren Preissegment positioniert. Preis war für unsere Nutzer und Kunden schon wichtig. Aber auch da wieder gibt es natürlich Preisspannen, auch bei uns. Und dann war es für uns einfach interessant, okay, klickt jemand immer Artikel, die in einem gewissen Preissegment sind oder eben nicht. Das ist nicht unbedingt bei jedem Nutzer erkennbar. Also für manche Nutzer ist das einfach vollkommen egal. Die gehen wirklich nur nach, gefällt es mir oder gefällt es mir nicht. Aber bei anderen Nutzern ist es vielleicht durchaus ein Muster zu erkennen. Und dann haben wir diese drei Attribute. Also ist jemand männlich, weiblich? Welche Modestile bevorzugt derjenige?
Erik Pfannmöller: Zum Beispiel sexy oder nicht?
Robin Müller: Zum Beispiel Und ist er preissensitiv oder nicht? Die haben wir dann quasi mit eigenen Modellen vorhergesagt und für den Nutzer im Prinzip Zielwert berechnet. Und diese drei Zielwerte haben wir dann mit verschiedenen Gewichtungen in die Sortierung einfließen lassen. Das heißt, wenn ein Nutzer ein paar Klicks gemacht hatte, hatte wirklich jeder Nutzer eine andere Sortierung.
Erik Pfannmöller: Wow, das ist schon ziemlich cool. Und jetzt wisst ihr auch, warum Amazon so viele Daten über euch hat. Weil wenn man viele, viele Bestellungen macht und viele, viele, viele Klicks, wie gut ihr eigentlich Dinge individualisieren könnt. Wir haben jetzt gerade herausgefunden, wie in einer Firma sozusagen Produktlisten optimiert werden. Wenn ich eben viele Produkte anbiete und ich nur ein bisschen Screen Time oder Bildschirmgröße habe, dann kann ich nicht alle Produkte anzeigen. Ich will die Produkte anzeigen, die natürlich meinen Umsatz maximieren, die dem Kunden am besten gefallen. Und dabei geht es natürlich auch darum, einfach ein gutes Erlebnis zu haben. Das habe ich verstanden. Ich würde an der Punkt nochmal die Frage sozusagen Blackbox und Make or Buy in den letzten Minuten ansprechen. Wir haben jetzt gerade verstanden, wir haben nur über das Thema Website und Content-Ausspielung gesprochen. Was sagst du, was macht man selbst, was kauft man ein und was heißt das eigentlich mit Blackbox?
Robin Müller: Ich glaube, eine Make-or-Buy-Entscheidung ist halt gerade im Tech-Bereich, muss man eigentlich regelmäßig treffen. Und ich habe es für mich immer versucht so zu definieren, dass ich sage, okay, Commodity-Sachen, die bei allen gleich sind, die kauft man eher ein. Also welches E-Mail-System nimmt man? oder wie speichere ich meine Dateien? Das kaufe ich eher ein. und Sachen, wo ich mich als Händler wirklich vom Wettbewerb abheben kann, die mache ich eher selbst. Jetzt ist das Thema AI oder Machine Learningvielleicht noch mal ein bisschen besonderes Thema,weil man daa ist es gerade noch am aufkommen,das heißt es ist definitiv noch nicht Commodity. Es gibt ganz viele Anbieter,bei denen man einkaufen kann. Es ist aber auch immer so ein bisschenMagic und eben eine Black Box. Das heißt, wenn man da keine Expertise hat,ist Make vielleicht nicht die richtige Lösung. Am Ende muss man die richtige Flughöhe finden. Also jetzt sollte ich mir vielleicht nichtfür alles mein eigenes Modell antrainieren,sondern für gewisse Sachen Ist es vielleicht ratsam, wirklich eine Software-as-a-Service-Lösung zu kaufen und zu sagen, okay, das war jetzt noch in der Nutzer-Journey ein Beispiel, was eher am Ende stand. Meine Textanalyse von Kundensupport-Tickets oder meinen Kundensupport-Bot, den kaufe ich mir lieber bei jemandem ein, der sich darauf spezialisiert hat, weil Textanalyse nochmal ein komplett eigenes Feld ist. Und ich fokussiere mich eher auf Bereich Recommendations zum Beispiel und da will ich aber vielleicht auch nicht wirklich detaillierteste Make-Entscheidungen treffen, sondern sage, okay, ich nehme mir vielleicht ein fertiges Modell von einem Cloud-Anbieter um die Ecke und fange damit mal an, das erstmal zum Beispiel mit einem AB-Test gegen meine bisherige Lösung zu fahren. Also es kann ja sein, ich habe gerade als Teil meines CRM-Systems schon ein Recommender-System auf der Seite. Ich würde sagen, die meisten E-Commerce-Shops haben jetzt schon eins. Trotzdem kann man sagen, okay, so ein Recommender-System, je nach Anbieter, ist das vielleicht nicht mal unbedingt E-Commerce-spezifisch, sondern ist einfach nur ein Recommender-System. Und ich fange jetzt vielleicht an, für mich, für meine spezielle E-Commerce-Lösung in meinem Vertical, mir ein Recommender-System zu bauen, was das noch ein bisschen besser kann. Und dann bleibt eigentlich nur der Weg des A-B-Testens, um herauszufinden, was am Ende besser performt. Da muss man sich vielleicht gar nicht mal unbedingt nur die Conversion-Rate anschauen, sondern auch so Themen wie Customer Lifetime Value, dass man dem Nutzer vielleicht nicht nur einen Sale macht, sondern dass der Nutzer einen durchaus auch als Anbieter wahrnimmt, wo es nicht nur graue T-Shirts gibt, sondern auch noch andere
Erik Pfannmöller: Sachen. Das fand ich spannend. Das heißt, zusammengefasst, es ist eigentlich nur eine Art Projekt, eine Software, die man baut, um etwas zu verbessern in seinem Shop. Und man muss es immer gegen den Status Quo benchmarken. Das heißt, man hat ein System live. Ich sage mal, das ist eine ganz statische Webseite, ein ganz statischer Shop. Und man kann ja auch mit einem Algorithmus schlechte Vorhersagen machen und sich gegenüber einer statischen Lösung verschlechtern. Würdest du zustimmen?
Robin Müller: Absolut. Also trifft eigentlich auf jedes Feature zu, was man baut. Egal, ob das jetzt im Bereich AI ist oder irgendwas anderes. Eigentlich bleibt einem, außer man ist sich absolut sicher, dass die Welt genau darauf gewartet hat und dass man es so gut gemacht hat, bleibt einem eigentlich immer nur der A-B-Test oder irgendeine Art von Test, wo man sich erstmal auf eine Ziel-KPI einigt, die man überhaupt optimieren will oder mehrere. Und am Ende ist es, glaube ich, gerade bei den Systemen, wo man ein Modell antrainiert, ratsam, das nochmal gegen was Manuelles zu benchmarken. Also wir haben das auch mit einer klassischen Recommendation-Engine, die wir von einem Anbieter bekommen hatten, haben wir dann bei gewissen Produkten einfach mal manuell die Produktempfehlungen gesetzt. Und gesagt, wie performt das eigentlich gegen den Recommender? Weil es gibt doch immer mal wieder Menschen, die sagen, wir wissen schon ziemlich genau, was unsere Kunden kaufen wollen. Und dann ist es, glaube ich, ab und zu auch mal ratsam, das mal zu verproben und zu sagen, ist das System eigentlich wirklich so gut mit den automatischen Entscheidungen?
Erik Pfannmöller: Das ist spannend und das finde ich auch eigentlich ein ganz guter Schlusswort, Robin. Liebe Zuhörer, wir haben heute ganz viel über das Thema E-Commerce gesprochen und sind ganz tief reingegangen in sozusagen, wie Dinge optimiert werden. Wir haben angefangen und gesagt, dass die User Journey nicht nur der Kaufprozess, da geht es auch um Marketing, da geht es auch um das Thema Kaufprozess und Checkout und auch um das Thema After-Sales-Marketing mit Kunden. Support. Wir haben uns heute fokussiert auf das Thema Recommendations, Verein Produkt Recommendations, haben in dem Bereich über contentbasierte Algorithmen und kollaborative Algorithmen gesprochen. Wir haben sehr viel über das Thema Produktlisten gesprochen und haben zum Beispiel gelernt, dass es verschiedene Algorithmen austauschbar sind und eigentlich gar nicht vorher klar ist, dass das neuronale Netzwerk das Beste ist, sondern bei dem Fall, Robin, bei euch sogar der einfachste Algorithmus gewonnen hat. Und ganz zum Schluss haben wir jetzt darüber gesprochen, dass dass eigentlich jedes AI-Projekt im E-Commerce auch nur ein ganz normales Softwareprojekt ist, das man A-B testen muss, dass man sie auch verschlechtern kann. Und zum Schluss, darum geht es ja bei AI Unplugged, hoffe ich, dass wir Ihnen heute einfach mal das Thema E-Commerce, was ist da dynamisch, was ist da statisch näher gebracht haben und wieder mal ein bisschen Licht ins Dunkel der KI-Welt gebracht. In dem Sinne danke ich dir, Robin, dass du heute bei uns warst und viele Grüße an unsere Hörer. Super, vielen Dank, hat total Spaß gemacht. Tschüss. Hey!