5 Use Cases: So nutzt du KI-Bilder für dein Marketing

16. Juli 2024, mit Joel Kaczmarek

Dieses Transkript wurde maschinell erstellt. Wenn dir ein Fehler auffällt, schreib uns gerne zu diesem unter redaktion@digitalkompakt.de.

Joel Kaczmarek: Hallo Leute, mein Name ist Joel Kaczmarek. Ich bin der Geschäftsführer von digital kompakt und heute habe ich wieder den lieben Georg Neumann am Start. Georg ist ja der Gründer hinter dem KI-Marketing-Bootcamp aus meinem Business-Club und war bei uns kürzlich schon mal im Podcast. Da hat er nämlich fleißig erzählt, wie man denn mit Hilfe von künstlicher Intelligenz mit Bildern arbeiten kann. Als Unternehmen ja nicht ganz uninteressant. Und dann haben wir uns gedacht, lass uns das doch heute nochmal spezifizieren. Und deswegen haben wir mal fünf Marketing-Use-Cases für die Anwendung von KI mitgebracht. Das heißt, wir gehen mal an fünf Beispielen durch, was man da eigentlich so machen kann, wie das grob passiert ist. Und ich glaube, da nimmt man genauso viel mit wie beim letzten Mal. Von daher schön, dass du wieder da bist, lieber Georg. Moin Moin.

Georg Neumann: Hi, schön, wieder da zu sein.

Joel Kaczmarek: Magst du nochmal einen kurzen Satz zu dir sagen, wer du bist und was du genau machst?

Georg Neumann: Ich bin seit 2022 tief in den Kaninchenbau Bild-KI eingetaucht und habe mich da relativ früh damit beschäftigt. Ich trainiere auch schon seit 2022 Bild-KI-Modelle und habe auf der Basis dann auch das KI-Marketing-Bootcamp gegründet, wo wir Marketingabteilungen und Agenturen im Umgang mit generativer KI schulen.

Joel Kaczmarek: Sehr gut.

Georg Neumann: Meine Spezialisierung ist eben tief in der Bildgenerierung.

Joel Kaczmarek: Ja, das ist mal ein Pitch, der sitzt sozusagen. Sehr gut. Ja, Schönchen, dann lass uns doch mal wie angedroht in unsere Use Cases einsteigen. Also der erste, den du heute mitgebracht hast, der dreht sich rund um die Firma FlightRide. Kennt man vielleicht, so ein flugrechtes Startup, oder ich weiß gar nicht, ob man noch Startup sagen darf, guten Gewissens, flugrechte Unternehmen. Vielleicht kannst du ja mal ganz kurz beschreiben, was da passiert ist oder wie das da genutzt wurde.

Georg Neumann: Die Agentur MDCT ist auf mich als Wild-KI-Experte zugekommen, weil sie einen coolen Pitch mit einer coolen Idee bei FlightRide gewonnen haben. Und die haben quasi mit KI schon ein richtig cooles Maskottchen entwickelt. Und die Anforderung war dann quasi, das skalierbar zu machen. Und dann bin ich mit Wild-KI-Training ins Spiel gekommen. Das heißt, wir haben erst mal das freigegebene Maskottchen dann aufbereitet, Trainingsdaten dazu entwickelt, haben dann auch ein Modell trainiert und das habe ich dann auch im MDCT geschult, wie sie genau damit umgehen können, dass sie das wirklich skalierbar für alle möglichen Visuals einsetzen können.

Joel Kaczmarek: Okay, also Grundgedanke, FlightRide macht ja, glaube ich, so diese Flugersatzzahlung. Also wenn dein Flug jetzt irgendwie verspätet ist oder ausfällt, dann kannst du die Forderung an FlightRide abtreten und die boxen die für dich durch und nehmen sich da irgendwie einen Cut weg. Also das ist ja so grob das Business, was die machen. Und wenn ich es jetzt richtig verstanden habe, wollten die quasi so eine Art Avatar-Maskottchen haben, mit denen sie ihre Ads, ihre Poster-Kampagnen und Co. bestücken können. Weil dann bist du ja mit einem Schlag, sage ich mal, auch unabhängig vom Land. Also du brauchst gar nicht mehr mit echten Menschen arbeiten, hast viel weniger Komplexität drin. Und da habt ihr quasi trainiert drauf mit KI, dass ich jetzt sagen kann, ich habe ein Maskottchen und kann das einfach per Prompt in unterschiedliche Settings setzen. Also ich könnte jetzt irgendwie sagen, keine Ahnung, Strandsetting oder Berge oder was weiß ich nicht was. Habe ich das richtig verstanden? Exakt, genau.

Georg Neumann: Und die Kampagne wird jetzt dann bald ausgerollt. Und es wurden natürlich verschiedenste Settings gemacht, verschiedene Emotionen, verschiedene Situationen, in der sich der Passenger dann befindet. Das ist der Codename für das Maskottchen. Und es ist ein ganz knuffiges, kleines, grünes Männchen geworden. Aber das werdet ihr auch bald am Flughafen Wien oder auch dann zu Olympia in der Metro in Paris sehen können. Also das wird auch eine europaweit ausgerollte Kampagne werden. Bin ich sehr, sehr gespannt drauf.

Joel Kaczmarek: Und wie genau darf ich mir das so vorstellen? Also vielleicht kannst du es ja mal so ein bisschen beschreiben, dass die Menschen auch mal ein Gefühl kriegen, was für Möglichkeiten mit KI in Sachen Maskottchen und Co. eigentlich so drin sind.

Georg Neumann: Also man muss ja nicht mal nur von Maskottchen sprechen. Man könnte das ja auch auf reale Personen ausrollen oder halt auf fiktive reale Personen. Geht ja genauso. Also ich muss ja auch nicht mit realen Fotomodels mehr arbeiten für eine Werbekampagne. sondern ich kann mir auch Markenbotschafter komplett generieren. Das heißt, ich generiere mir die Idealperson, die ich für meine Werbekampagne haben möchte oder Maskottchen oder was auch immer und versuche dann genügend Trainingsmaterialien zu schaffen, damit ich auch einen konsistenten Charakter hinbekomme. Das funktioniert dann wiederum über Training. Aber wenn ich dann einmal ein Modell habe, dann ist es ja unendlich skalierbar. Das heißt, ich kann mit Prompting diese Figur oder diesen Menschen entsprechend in alle möglichen Szenen reinsetzen.

Joel Kaczmarek: Und in unserer letzten Folge können die Leute sich ja nachhören, wie das technisch alles möglich ist, also wenn man das macht. Aber vielleicht kannst du ja so im Express-Format mal erklären, welche Software-Tools ihr dafür genutzt habt, also welche KI-Tools habt ihr eingesetzt.

Georg Neumann: Also für den Fall Flightrate und MDCT war das jetzt ganz einfach über Stable Diffusion, weil da brauchte ich die entsprechende technische Tiefe und das geht im Prinzip bloß mit Stable Diffusion im Moment, weil nur dort habe ich die Möglichkeit, ein komplettes Feintuning zu machen auf ein Objekt oder ein Muskottchen oder einen Menschen oder was weiß ich. Und das wurde dann trainiert mit einem Tool, das nennt sich Koya SS. Das ist eine Open-Source-Software, mit der kann ich dann einfach entsprechend die aufbereiteten Trainingsdaten ein Fine-Tuning geben und dann rödelt einfach mein Rechner fünf Stunden am Stück, macht, dass der Raum hier verdammt heiß wird und dann ist das ganze Ding fertig. Und dann kann man damit arbeiten. Dann hat man eine Datei, mit der man entsprechend die wieder in andere Stable-Diffusion-Tools reingeben kann. Ein sogenannter Safe-Tensors-Checkpoint nennt sich das dann. Und Damit kann man dann ganz flexibel arbeiten. Cool.

Joel Kaczmarek: Komm, zweiter Use Case. ENBW hat ja auch was Lustiges gemacht. Gerade, wenn wir das aufnehmen, läuft ja die EM. Was war da denn am Start?

Georg Neumann: Jungfer Matt hat für ENBW den Bundestrainer mit AI entwickelt quasi. Da kann man ein Selfie von sich hochladen und sich dann in einen Bundestrainer, je nach verschiedenen Stilen, auch verwandeln lassen. Also von, wie hießen die Stile? Ich habe es gerade nicht mehr im Kopf. Du hast es auch gerade mal angeschaut.

Joel Kaczmarek: Ja, hier sind wir schon mit Fokuhila, wären wahrscheinlich du und ich. Also der kultige Kumpeltyp oder der freundliche Buddytyp.

Georg Neumann: Exakt.

Joel Kaczmarek: Der smarte Laptoptyp oder der emotionale Powertyp. Das waren so die vier Kategorien.

Georg Neumann: Genau. Ist ein ziemlich cooler Use Case für einen Generator, um jetzt halt gerade auch den Hypen entsprechend mitzunehmen. Wurde auch, glaube ich, ganz gut aufgenommen. Ich habe es auch mal ausprobiert. Hat schon Spaß gemacht.

Joel Kaczmarek: Okay, also kennt man ja auch so ein bisschen. Es gab ja mal vor einem Jahr oder so, gab es ja auch mal diese Kiste, dass man sich als so Superhelden irgendwie darstellen konnte. Also Logik hier leicht anders, man nimmt quasi ein Foto von sich und die KI setzt sozusagen das eigene Aussehen dann in neue Settings um. Hast du eine Vermutung, womit das gemacht wurde?

Georg Neumann: Ich habe zwei Vermutungen. Entweder ist es mit einem sogenannten IP-Adapter-Face gemacht worden, das ist quasi ein spezialisiertes Modell, das relativ gut dazu geeignet ist, Gesicht dazu wieder zu reproduzieren, ohne ein separates Training dafür machen zu müssen, weil sonst sind wir wieder beim ersten Use-Case. Weil das geht auch verdammt schnell bei ENBW. Also innerhalb von ein paar Sekunden ist das Bild da. Oder es ist tatsächlich ähnlich wie bei Deepfakes einfach ein Faceswap. Das heißt, es wird erst ein normales Bild generiert und dann wird das Bild, das man ihm liefert, auch mit so einer Art draufgeswappt sozusagen.

Joel Kaczmarek: Na gut, aber da merkt man ja schon mal so die Anwendungsszenarien. Also Flightride-Szenario 1 eher, ich schaffe mir künstlich eine Figur, eine Persona, mit der ich werbe und lasse die KI sie dann immer wieder in unterschiedlichen Settings erzeugen. ENBW-Marketing-Move eher, hey, nimm dein Foto, pack das in ein neues Setting und mach es dann shareable. Also da gibt es ja auch irgendwie auf der Seite, kann man sich ja mal angucken, der ENBW-Bundestrainer, beziehungsweise EMBW, ja sogar lustigerweise, haha, und der Trainer mit AI, haha. Also da kann man sich auch das Bildformat aussuchen. Will man das eher für Storys haben oder eher für Feeds? Also da dann schon direkt der Gedanke, auch wahrscheinlich dann mit einem kleinen Wasserzeichen, wie kriegt man es quasi dann in die Feeds rein. So, ja, kann man machen. So, und jetzt hast du mir erzählt im Vorgespräch, dass ja auch die Tools dafür immer besser werden. Und das finde ich ja ganz spannend, dass wir vielleicht auch mal da einen Use Case bauen, dass wir mal ein Tooling vorstellen. Du hast mir nämlich von Magnific AI erzählt. Was kann das denn mittlerweile?

Georg Neumann: Also Magnific AI kommt eigentlich daher, dass es eigentlich bloß fürs Upscaling von Bildern konzipiert war. Aber die sind gerade dabei, ein richtig geiles Feature auszurollen, das auf der Basis von IC-Light funktioniert. Das ist wiederum sehr technisch in der Stable Diffusion Bildgenerierung drin. Aber das ermöglicht, dass ich jetzt ein Produktfoto nehmen kann, also ein freigestelltes Produktfoto und per Prompt den Hintergrund austauschen kann. An sich, sowas gibt es bereits, kein Problem. Aber das Besondere ist jetzt, dass auch das Licht auf dem Produktfoto entsprechend an den Hintergrund angepasst wird, an auch Schattenwurf und so weiter, die Farblichkeit. Also das wird alles entsprechend mit aufgegriffen und dadurch wirkt es halt dann ganz natürlich innerhalb dieser Szene drin. Also mal angenommen, ich nehme ein Bild von einem Fußball rein, dann wird auch das Weiß auf dem Ball entsprechend die Farblichkeit des Untergrunds, was halt sonst auch reflektieren würde, entsprechend aufnehmen.

Joel Kaczmarek: Ja, spannend. Das ist natürlich auch echt faszinierend, weil wenn man sich das mal so überlegt, dann muss ja so eine KI quasi auch verstehen, welche Form hat das Objekt, wie ist der Lichteinfall, wie gibt es Reflektionen, Schattenwurf. Also das hast du ja fast was von 3D-Modellierung sozusagen. Und ist natürlich schön, weil dann kann ich jetzt irgendwie hingehen und kann jetzt irgendwie sagen, wenn ich jetzt irgendwie, weiß ich nicht, Beauty-Produkte herstelle, dann kann ich die mal mehr in so einem Bambus-Asia-Japan-Style vielleicht inszenieren und dann auch mal eher in so einem Beach-Summer-Wave-Whatsoever inszenieren. Ja, und habe aber quasi keinen extra Aufwand, sondern mit einem Klick kann ich quasi ein und dieselbe Kampagne lokalisieren, so könnte man es ja quasi sagen.

Georg Neumann: Exakt. Es sind natürlich auch nicht die Grenzen gesetzt, gerade wenn es um das Thema Transparenzen geht, muss man halt erstmal austesten, wie es funktioniert. Aber selbst dafür gibt es ja mittlerweile Use Cases, wenn man mal von Magnific AI wegschaut. Ich finde es extrem cool, weil das war bis jetzt eigentlich eine Technik, die extrem technisch war. Und die kommt jetzt in ein Tooling rein, das eigentlich jeder bedienen kann. Also das ist ein extrem spannender Prozess hier.

Joel Kaczmarek: Sag mal so kurze Zeitnot sozusagen. Glaubst du, dass Unternehmen, brauchen die dann jemanden, der ihnen trotzdem noch hilft mit diesen Tools? Oder würdest du sagen, dass man teilweise einzelne Mitarbeitende dafür abstellen kann, dass man vielleicht so den Go-To-KI-Guy in der eigenen Firma hat? Was beobachtest du denn da so, wie die meisten das machen?

Georg Neumann: Ja, das ist Sehr, sehr spannend. Also meistens entwickeln sich auch Mitarbeiter, entweder die sich selbst aus Eigeninteresse auch privat damit beschäftigen, so ein bisschen zum internen KI-Botschafter. oder was wir auch ganz oft haben, dass Leute, die in unseren Schulungen waren, dann plötzlich zum internen KI-Botschafter werden oder auch Teilweise Head of AI hatten wir auch schon die Beförderung von Leuten, die bei uns mitgemacht wurden, die wurden dann zum Head of AI ernannt. Also es ist immer generell eine Empfehlung von mir, sucht euch in den Abteilungen die Leute aus, die eh schon Bock drauf haben, die vielleicht eh schon eingearbeitet sind, schult die und lasst die dann wirklich intern zu den Botschaftern werden, damit die weiter an den Cases arbeiten und die entsprechend weiterentwickeln.

Joel Kaczmarek: So, drei Cases haben wir schon durch. Kommen wir zum vierten. Lustigerweise ein Freund des Hauses bei uns, nämlich Payback. Ich habe gelernt, du machst auch mit Payback Sachen. Was ist da los? Machst du hier die Pointies von denen? Das sind diese blauen Kullern, habe ich gelernt, die man immer übersieht.

Georg Neumann: Mit denen haben wir nichts zu tun, aber denen dürften wir auch helfen. Mit einer Schulung entsprechend. Und da war ein spannender Use Case. Und zwar wurden dann Kampagnenfotos, sollten wir antreten lassen, dass die quasi getestet werden von der KI auch. Das heißt, wir haben einen Custom GPT zusammen mit denen entwickelt. der Bilder bewertet für Kampagnen. Nach Parametern, nach ganz fixen Parametern soll der Bilder bewerten und das liefert schon sehr, sehr guten Output. Lässt sich aber sogar noch erweitern für AB-Tests zum Beispiel. Ich brauche nicht mehr unbedingt eine reale Zielgruppe. Ich kann ja auch eine fiktive KI-Zielgruppe wählen. Oder man kann sogar noch weiterentwickeln, dass man mit Custom-GPTs dann entsprechend die Zielgruppe über deine Werbematerialien diskutieren lassen sogar. Das ist auch ein spannender Use-Case. Also man kann zwei verschiedene Zielgruppen, die man vielleicht hat, oder zwei verschiedene Personas aus der Zielgruppe über deine Werbematerialien sprechen lassen. Als Custom-GPT. In sich geschlossen.

Joel Kaczmarek: Wie so ein Gespräch sozusagen, dass du sagst, Persona A ist irgendwie 27-jähriger Berliner, trinkt gern Kaffee Latte, ist Vegetarier, hat zwei Kinder und der andere ist vielleicht, weiß ich nicht, aus Hamburg, alleinerziehend oder, keine Ahnung, Küstenmensch, bisschen konservativer. Und die beiden diskutieren dann über dein Werbemittel, wie es bei denen ankommt.

Georg Neumann: Genau, exakt. Die diskutieren das dann richtig schön aus und geben dir dann, wenn der Custom GPT so programmiert ist, gibt er dir dann am Ende noch Handlungsempfehlungen aus, was du verbessern solltest.

Joel Kaczmarek: Und nochmal ganz kurz, wie ihr es gemacht habt, also man kann ja bei OpenAI, also einfach bei ChatGPT eigene GPTs programmieren, wo man quasi sagt, das ist jetzt irgendwie der Roboter Georg und der macht folgendes. Und so seid ihr vorgegangen?

Georg Neumann: Genau, also wir haben den Custom GPT über ChatGPT entsprechend entwickelt. Und der hat dann halt seine Instructions bekommen und halt auch eine Wissensdatenbank. Das ist immer ganz wichtig, weil dadurch, das nennt sich dann Retrieval Augmented Generation, das heißt, anhand der Wissensdatenbank wird natürlich der Faktor Halluzination deutlich abgeschwächt. Dann kann man noch andere Mechaniken einbauen, damit weniger Halluzination stattfindet und einfach das Ergebnis korrekter ist. Gerade wenn es darum geht, Fakten zu schaffen. Das ist ja ganz wichtig. Weil KI neigt ja immer noch zur Halluzination. Das ist sogar ganz stark, aber es gibt natürlich auch Gegenmaßnahmen, die man da ergreifen kann. Wissensdatenbank und entsprechende auch Chain-of-Verification-Prompts nennt sich das dann.

Joel Kaczmarek: Und was habt ihr für eine Wissensdatenbank konfiguriert, wenn ihr jetzt, sage ich mal, bei Payback irgendwie die Anforderungen habt? Okay, die und die Bildformate, die und die Auflösung, die und die Farbwelt, die und die Motive. Also woher sourcet man denn dann sozusagen eine Wissensdatenbank, die da verhindert, dass das Ding halluziniert?

Georg Neumann: Man muss ganz konkret diese Parameter halt in Textform liefern, die auf das Bild angewendet sein dürfen. Und wenn die halt nicht gegeben sind, dann muss halt der Custom GPT dann auch sagen, hey, das ist falsch. Genau, also man braucht die Daten schon noch verschriftlicht. Am besten in einem Art JSON-Format, das ist wieder ein bisschen technisch, das ist ein vereinfachtes Textformat. Das kann man aber relativ leicht umwandeln. Man muss aber die Daten natürlich auch haben oder erschaffen dafür.

Joel Kaczmarek: So, und unser fünfter und letzter Use Case für heute, den hatten wir in der letzten Episode sogar schon mal so ein Stück weit angerissen. Und wie ich von dir lerne, kriegst du da überraschend viel Nachfrage auch drauf. Also immer mehr, nämlich das ganze Thema Internationalisierung. Erzähl doch mal, was ist denn da so, was die Leute interessiert?

Georg Neumann: Ja, jetzt wird halt langsam auch das Potenzial erkannt. Also jeder deutsche Hersteller, der schon zehntausende Euros in Fotoshootings ausgegeben hat und jetzt international natürlich tätig ist, der will nicht das gleiche Geld zwangsläufig nochmal in die anderen Länder investieren. Das heißt Anhand von einem fertigen Fotoshooting kann ich ja problemlos diese Menschen auf den Fotoshootings austauschen oder auch teilweise in den Hintergrund, wenn es kulturell hilfreich ist und das Produkt für den anderen Markt besser inszenieren. Also angenommen zum Beispiel für den asiatischen Markt, dann wird halt der Mensch, der in dem Werbefoto abgebildet ist, entsprechend ausgetauscht.

Joel Kaczmarek: Und sag mal, wie viel Echtzeit habe ich denn da schon drin? Weil ich gerade so drüber nachdenke, man kann es ja sogar lokal so handhaben, dass wenn ich jetzt irgendwie bei einer Fashion-Seite mir ein Kleid bestelle, dass es vielleicht mir aussuchen kann, so Avatar-mäßig, ich möchte jetzt gerne eine Rothaarige sehen, weil ich bin eine Frau, ich bin selber rothaarig und die soll irgendwie sehr helle Haut haben versus vielleicht bin ich irgendwie schwarz und habe irgendwie Locken. Also so Kurzhaarfrisur, weißt du, was ich meine? Ich habe so gelernt, ich habe das lustigerweise mit Frauen gelernt, dass die dann halt immer sagen, ich kann mit diesen Models, die die Kleidung haben, gar nichts anfangen, weil die sieht ja nicht aus wie ich. Ich will ja wissen, wie das an mir aussehen würde, damit ich es mir vorstellen kann. Geht sowas nicht eigentlich auch schon?

Georg Neumann: Noch nicht ganz, weil da haben wir noch eine Limitierung, an der die Fashionbranche noch ein bisschen kämpft. Aber ich sage mal, ich gebe dem Ganzen noch ein Ja maximal. Das Problem ist nämlich Konsistenz quasi in der Kleidung, in den Details. Weil es ist für den Kleidungshersteller natürlich schon ein extremer Unterschied, ob jetzt der Reißverschluss hier links oder zwei Zentimeter weiter rechts ist. Das heißt, die Detailwiedergabe muss natürlich dann entsprechend stimmen. Das ist gerade noch die Limitierung, in der wir laufen. Es gibt natürlich extreme Bemühungen in dem Bereich und das wird auch kommen, bin ich mir ziemlich sicher.

Joel Kaczmarek: Eigentlich möchte man ja fast meinen, ob nicht irgendwie ein Dienst kommt, wo du sozusagen deinen Avatar hinterlegen kannst und dann ist er sozusagen across-platform quasi, siehst du dann dich selbst, egal ob es jetzt irgendwie bei Meta ist, bei Apple oder halt auf so einer Fashion-Seite. Also das fände ich eigentlich irgendwie konsistent, ne?

Georg Neumann: Ja, absolut. Also das kann durchaus passieren. Das ist natürlich Thema Datenschutz ein bisschen das Thema, auch was man da an Informationen reinkippen will, aber die Daten sind ja eigentlich schon im Netz, wenn man es so sagen will.

Joel Kaczmarek: Ja, cool. Aber ich meine, es ist ja wirklich mal ein buntes Bouquet, weil wenn wir mal so durchgehen, also Flightrate war das Thema künstliche Maskottchen schaffen, um da dann mit KI einfach ganz einfach was herstellen zu können. ENBW war der Case, ich nehme ein Foto von meinen Kunden und die können dann sozusagen Dinge zaubern und affiliaten damit, also fühlen sich irgendwie angesprochen. Magnific AI war, ich nehme Bilder und kann sie quasi verändern, die Hintergründe kann anpassen. Payback war eher wie so eine Art Feedbackgeber oder auch interne Diskussion, wenn ich sozusagen eine Kampagne habe, dass ich die mit einer virtuellen Zielgruppe matchen kann. Und dann der letzte Case, Internationalisierung, also dass ich Bilder auch ganz einfach lokalisieren kann und der Zielgruppe anpassen, je nachdem, in welchem Markt ich mich bewege. Und das finde ich einfach ganz geil, so aus Gesprächen mit dir, das sind jetzt so fünf völlig unterschiedliche Use Cases, alle irgendwie abbildbar und das schon in echt, echt hoher Qualität.

Georg Neumann: Absolut. Ich habe sogar noch einen ganz kleinen Bonus, der auch Spaß macht. Wir können mal alle Kreativen testen. Gebt mal eure Visuals, egal ob jetzt real oder KI generiert, in den Chat rein, in den mit ChatGPT zum Beispiel und sagt einfach nur, roast this. Und dann roastet der das und das macht extrem Spaß oder ist auch sehr niederschmetternd, was dabei rauskommt.

Joel Kaczmarek: Sehr gut, sehr gut. Hast du nach hinten raus noch einen kleinen Ausblick? Also ich kann ja schon mal sagen, wir werkeln ja auch dran, dass wir bei Makers und Shakers mal mit so Avataren arbeiten, weil in unseren virtuellen Gruppen haben wir ja teilweise so Schwerpunkte, je nach Bereich. Also HR, Marketing, Sales, Geschäftsführung, Tech, sowas. Und da werden wir dann auch arbeiten auf so einem Wege. Also das heißt, wir nehmen auch unsere eigene Medizin, aber vielleicht hast du ja auch noch so nach draußen so eine Hypothese, wo du sagen würdest, okay, going forward, glaube ich mir, in einem Jahr haben wir noch das am Start oder wird noch viel mehr gehen, nämlich.

Georg Neumann: Also erstens, Prompt Engineering wird immer leichter. Das heißt, aus der Anfangszeit von BuildKI gab es ja noch diese ellenlangen Prompts, die sehr technisch waren und fast schon wissenschaftlich. Das wird irgendwann der Vergangenheit angehören, weil einfach auch Sprachmodelle dazwischen geschalten werden. Also da wird einfach die Hürde deutlich geringer sein in der Nutzung. Die Tools werden generell von der Entwicklung her so sein, dass sie natürlich immer benutzerfreundlicher sind, weil es steckt natürlich immer mehr finanzielles Interesse dahinter. Das heißt, die wollen immer mehr in die breite Masse rein. Und auch das Thema Training wird in Zukunft nicht mehr so kompliziert sein. Also auch Adobe arbeitet natürlich an dem Thema, dass man Produkte oder Menschen trainieren kann und so weiter. Das wird wahrscheinlich auch irgendwann auch mit Journey der Fall sein. Also es wird alles in Zukunft immer weiter, immer breiter in die Masse reinkommen. Viel einfacher in der Bedienung sein und wir sind ja gerade erst am Anfang, das ist ja das Geile. Also die Use Cases werden immer verrückter werden und ich sehe da noch kein Ende der Welle. Also die reiten wir jetzt einfach noch und dann schauen wir mal, wo die Reise hingeht.

Joel Kaczmarek: Sehr gut, lieber Georg. Also ich sehe schon, dann werden wir dich hier bestimmt nochmal zu Gast haben. Vielen, vielen Dank. Also mal in 20 Minuten schnell runtergeknallt, was es da so an Marketing-Use Cases gibt. Das macht doch Spaß und dir natürlich weiterhin viel, viel Erfolg.

Mehr zum Thema

Künstliche Intelligenz

Diese Episode dreht sich schwerpunktmäßig um Künstliche Intelligenz: Nachdem wir anfangs Erik Pfannmöller von Solvemate regelmäßig vor dem Mikro hatten, um dich zum Profi für Künstliche Intelligenz zu machen, diskutieren mittlerweile Rasmus Rothe (Merantix) und Jasper Masemann (HV Ventures) über dieses innovative Thema. Leicht verständlich bringen sie dir Fachbereiche wie Deep Learning, Neuronale Netze, Maschinelles Lernen & Co. bei.