Wie nutze ich Bild-KI für mein Business? 🤖

13. Juni 2024, mit Joel Kaczmarek

Dieses Transkript wurde maschinell erstellt. Wenn dir ein Fehler auffällt, schreib uns gerne zu diesem unter redaktion@digitalkompakt.de.

Joel Kaczmarek: Hallo Leute, mein Name ist Joel Kaczmarek. Ich bin der Geschäftsführer von digital kompakt und heute reden wir über KI und zwar genauer gesagt über Bilder. Weil ich habe mich so gefragt, was kann man eigentlich mit künstlicher Intelligenz und Bilderzeugung so im Business machen? und habe da einen Go-To-Guy. Und dieser Go-To-Guy ist der liebe Georg. Georg Neumann, der ist nämlich Mitglied in unserem Business Club Makers & Shakers. Und hat sich dort als so, wie gesagt, der Go-To-Guy für KI rausgestellt, weil er das schon sehr intensiv macht. Mittlerweile hat er da sogar ein ganzes Business draus gemacht und zwar das KI-Marketing-Bootcamp. Da schult er im Umgang mit Text- und Bild-KI, also wenn ihr was ähnlich Geiles machen wollt, wie das, was wir jetzt hier erzählt bekommen gleich. Dann wendet euch an den lieben Georg und ich kann euch sagen, der macht das wirklich by heart. Also er hat auch zusammen mit Paul bei uns aus der Community mal eine Session gemacht. Da haben sie gezeigt, wie sie Kinderspielsachen hergestellt haben mit KI. Das war mein Highlight des Jahres 2023. Also ich glaube, heute kommen wir auf unsere Kosten. Und zum Erwartungsmanagement, wobei reden wir? Also wir werden mal Tools durchgehen. Welche Tools gibt es eigentlich für Bild-KI? Dann wie kriege ich es eigentlich hin, dass ich so einen konsistenten Charakter erzeuge? Weil vielleicht will ich immer wieder mich in Szenerien zeigen oder eine Werbefigur oder oder. Wie schaffe ich es denn dann, von einer Skizze zu einem richtigen Konzept zu kommen, also zum fertigen Bild? Und dann haben wir noch zwei spannende Anwendungsfälle nach hinten raus. Da lasst euch mal überraschen. Die sind, glaube ich, auch ganz geil. Von daher, heute wird es spaßig. Lieber Georg, that being said, schön, dass du da bist.

Georg Neumann: Hi, schön, dass ich da sein darf.

Joel Kaczmarek: Ja, großartig auch, dass du das machst. Ein ganz kurzer Satz. Wie ist es eigentlich gekommen, dass du so ein KI-Guru geworden bist?

Georg Neumann: Ich bin da vollkommen reingerutscht. Ich habe irgendwann 2022 erfahren, dass Stably Fusion veröffentlicht wurde und dass man das einfach auf seinem eigenen Rechner zu Hause trainieren konnte. Und dann wurde mir die Implikation einfach klar, was das für unsere Branche in der Zukunft bedeuten wird. Habe dann irgendwann auch mal das erste Bild auf LinkedIn geteilt, wo ich meine Bild-KI quasi mit meiner Tochter feingetunt habe und sie als Pixar-Charakter dargestellt habe. Das hat dann die liebe Vroni gesehen, die gerade ihren Doktor zum Thema Text-KI in der Bildung macht. Und dann sind wir ins Quatschen gekommen, wir waren beide begeistert. Das war so, bevor jedem Hype war das. Und wir zwei waren halt schon hyped und haben uns gedacht, hey wow, wir müssen das irgendwie an die Leute bringen, in Agenturen, in Marketingabteilungen und so weiter, weil das wird die Branche komplett über den Haufen werfen. Und damit muss man sich jetzt beschäftigen. Und dann haben wir das Business gestartet. Erstmal so nebenbei und mittlerweile bin ich da zu 100% involviert und das ist mein Hauptfokus.

Joel Kaczmarek: Ja, also das war ja auch euer Anwendungsfall, den wir bei Makers & Checkers hatten. Paul, der macht so Kartensets, mit denen man irgendwie lernen kann. Also ein bisschen wie Quartettkarten und dann stehen nur nicht die Werte drauf, sondern Matheaufgaben und so rechnet man dann, wie viel Kraft oder Energie hat die Figur. Ah, guck mal, jetzt hat sogar eine hier. Hält ja gerade die Kamera, der liebe Georg. Und da ist ja auch alles KI erzeugt, die Namen der Figuren, die Bilder und bei dir war es, dass du so eine Art Bilderbuch gemacht hast für deine Tochter, was ja total geil war, so eine Geschichte mit Text drunter. und dann hast du halt gesagt, okay, jetzt ist die irgendwie Schatzsucherin im Dschungel und zack, sah die so leicht Indiana Jones mäßig aus und schwang sich da an den Lianen lang. Also um schon mal zwei Anwendungsfälle hier ein bisschen zu skizzieren. Und vielleicht fangen wir mal Basic an. Du hast ja eben schon so einen Tool-Namen reingeworfen und viele da draußen, die haben das vielleicht schon mal bei ChatGPT benutzt, also diese DALI 3 Engine, mit der man dann einfach was eintippt und was entsteht. Was sind denn sonst so die Top-Tools, die du nutzt für Build.KI?

Georg Neumann: Ja, wie gesagt, DALI 3 ist halt so der Einstieg, den immer die meisten für den Anfang nehmen, weil es einfach schon in ChatGPT integriert ist. Neigt aber leider zum Kitsch mittlerweile und ist für Fotos zum Beispiel ungeeignet. Das heißt, man kann auch einen Schritt weiter gehen, wenn man ein bisschen Anspruch an sein Bild hat, dann landet man ganz schnell bei Mid-Journey, was ja auch sehr früh durch die Medien ging und sehr früh sehr beliebt wurde bei Medienschaffenden und so weiter, weil es immer ein schönes Bild schafft. Das betone ich so, weil es am Anfang immer inhaltlich nicht korrekt war, aber es war grundsätzlich immer ein schönes Bild, was die Konkurrenz teilweise nicht geschafft hat. Und deswegen war Mid-Journey immer gleich sehr schnell beliebt. Ist sehr mächtig. und da gibt es jetzt eh gerade eine Neuerung, die muss ich kurz erwähnen. Die sind endlich dabei, eine eigene Benutzeroberfläche einzuführen. User, die schon 100 Bilder damit generiert haben, haben schon Zugriff drauf. Neue User müssen es leider noch über die alte Benutzeroberfläche nutzen. Aber bald ist es soweit und dann wird es wirklich ein richtig mächtiges Tool.

Joel Kaczmarek: Ja, vielleicht kann man das ja mal ganz kurz skizzieren, also das läuft ja quasi auf, ach, wie heißt das, Mensch?

Georg Neumann: Discord.

Joel Kaczmarek: Genau, das läuft auf so einem Discord-Server und das ist ja dann schon ein leichter Nerd-Alarm, ne? Also so für den geneigten Laien, sich erstmal Discord runterladen, verstehen, wie das funktioniert. Ich fand immer sehr schwer, Midjourney so anzuleiten, dass man gute Bilder erstellt. Also wenn ich jetzt sage, okay, ich habe gerade so eine Optik im Kopf, weiß ich nicht, hochauflösend, Film-Noir, schwarz-weiß mit einzelnen Farbelementen. Ich wusste mal gar nicht, wie ich das quasi in Prompts übersetzen soll. Das hat es bisher sehr schwer gemacht. Hast du da einen guten Tipp, wie man das machen kann bei Midjourney?

Georg Neumann: Da gibt es eine sehr, sehr coole Abkürzung, die hat auch der Paul mit weiterentwickelt. Es gibt einen Custom-GPT, der dir Midjourney-Prompts schreibt. Den können wir vielleicht im Nachhinein irgendwie noch sharen, ich weiß nicht.

Joel Kaczmarek: Ja, können wir in die Shownotes schreiben.

Georg Neumann: Das ist die einfachste Abkürzung, zumindest wenn man Fotos generieren möchte. Nach einem gewissen Stil schmeißt man da einfach in den Custom-GPT rein, was man haben möchte und der übersetzt das in einen sehr, sehr mächtigen Prompt, der sehr coole Ergebnisse ausschmeißt.

Joel Kaczmarek: Okay, dann sage ich sozusagen den Stil und dann alles klar. Na gut, wenn es da endlich mal eine Oberfläche gibt, dann geht es ja auch voran, weil ich merke so, man benutzt Sachen dann, wenn die irgendwie integriert sind in etwas, was man eh benutzt. Habe ich so den Eindruck, dass ich das auch so bei KI zuspitze. Ich habe da mit Alex Graf neulich drüber geredet und da waren wir uns irgendwie einig, Man benutzt nicht mehr 20 kleine Tools, sondern man möchte eigentlich drei große haben, so ein Stück weit.

Georg Neumann: Ja, und dann landen wir eigentlich automatisch schon bei Adobe Firefly. Das war jetzt eine herrliche Überleitung, Joel. Adobe ist ja natürlich mächtig daran interessiert, KI in alle seine Tools irgendwie zu integrieren als großes Ganzes. Sie nennen es ja auch Adobe Sensei, ist der Überbegriff für ihre ganzen KI-Tools. Und da gibt es ja mittlerweile unzählige. Für die reine Bildgenerierung nennt sich das Adobe Firefly. Ist ein eigenständiges Web-Tool, also über firefly.adobe.com kann es jeder nutzen mit einem Adobe-Account. Kann man kostenlos teilweise auch testen über firefly.adobe.com. Mit einem Adobe-Account braucht man dann entsprechend und das ist ein eigenständiges Web-Tool. Und für die Bildgenerierung ist es jetzt schon cool, weil es so eine kleine Switch jetzt schon ist. Man kann auch schon Bilder weiter bearbeiten, man kann sie retuschieren. Und man muss auch nicht mehr so kompliziert prompten wie früher, sondern kann sich das dort ein bisschen zusammenstöpseln. Das heißt, man hat auch entsprechende Schaltflächen, wo man dann einfach anklickt Film Noir, so nach dem Motto. Oder du kannst ihm sogar Stilreferenzen hochladen. Das heißt, du gibst einen Screenshot aus irgendeinem Film Noir-Film, der dir gefällt, gibst du als Stilreferenz rein und der greift dann diesen Stil auf.

Joel Kaczmarek: Ah, okay. Also du kannst auch bestehende Bilder hochladen und verändern lassen oder kannst du nur neue erzeugen?

Georg Neumann: Du kannst nur neue erzeugen, weil diese generative Füllung wäre natürlich auch auf Bestandsbildern höchst spannend, geht aber im Moment noch nicht. Das heißt, du kannst nur neue erzeugen, hast aber im Gegensatz zu mit Journey und DALL-E3 zum Beispiel schon deutlich mehr Einflussnahme auf dein Bild. Das heißt, du kannst ihm nicht nur eine Stilreferenz zum Beispiel geben, du kannst auch eine Strukturreferenz hochladen. Das heißt zum Beispiel einen groben Bildaufbau skizzieren oder zum Beispiel dein Logo hochladen und dann nimmt er dein Logo als Strukturreferenz und nimmt diese Formen für die neue Generierung her.

Joel Kaczmarek: Weil mir geht es immer so, also Photoshop hat ja auch eingebaute KI-Geschichten, da geht es meistens um generatives Füllen. Also das heißt, ich erweitere das Bild vielleicht nach links oder nach rechts, weil ich was in 16 zu 9 zum Beispiel haben möchte und es ist halt irgendwie hochkant oder so. Das finde ich funktioniert sehr, sehr gut. So andere Elemente, da denkst du dir so, okay, wenn du dann was dazu schreibst mit, entferne diese Person oder weiß ich nicht, setz einen Mann daneben und dann denkst du auf einmal so, hä, so völlig far off, wie das eigentlich aussehen sollte. Da ist noch so ein bisschen Bedarf, sag ich mal, zur Entwicklung.

Georg Neumann: Ja, generative KIs ist ja in vielen Fällen immer noch Trial and Error. Weil die Hersteller lernen, die Modelle lernen, wir lernen damit umzugehen. Das ist alles noch sehr im Fluss. Und deswegen nicht überrascht sein, wenn mal wirklich ganz abstruse Ergebnisse dabei herauskommen. Das gehört leider noch zum Alltag dazu.

Joel Kaczmarek: Und dann gibt es ja noch ein viertes Tool, was glaube ich auch mal erwähnt gehört, da bist du ja glaube ich auch Pro drin, das ist Stable Diffusion.

Georg Neumann: Genau, da muss man vielleicht nochmal kurz ausholen, weil Stable Diffusion ist nicht ein Tool, das ist eine Open Source Technik, die halt jedem zur Verfügung steht und darauf basieren ganz, ganz viele unterschiedliche Tools. Ein bekanntes auf dem Markt ist zum Beispiel Leonardo AI. Das ist auch eine Web-App, die sehr, sehr mächtig ist, die sehr viele Vorteile von Stable Diffusion auch relativ einfach anbietet. Aber natürlich kann sich auf diese Open-Source-Technik jeder draufsetzen, was natürlich auch im Business-Case das Tool dann der Wahl ist bzw. die Technik der Wahl, weil es extrem flexibel ist.

Joel Kaczmarek: Erzähl mal ein bisschen mehr, wie man das so benutzt. Wie darf ich mir das vorstellen? Lade ich es mir sonst runter, wenn ich jetzt nicht gerade Leonardo AI nutze? Oder wie setze ich das ein?

Georg Neumann: Genau, also wenn ich es nicht als Web-App nutzen will, wie zum Beispiel Leonardo, dann kann ich es auch lokal bei mir installieren. Läuft auch auf zum Beispiel MacBooks mit M1 bis M3 Chips zum Beispiel. Da läuft es schon ganz passabel. Aber es braucht natürlich viel Rechenleistung. Und dann installiert man auch nicht einen Stable Diffusion, sondern man installiert dann eine Web-Oberfläche, die auf Stable Diffusion zugreift. Und das dann für die Generierung nutzt. Da ist die bekannteste, die nennt sich Automatic 11.11. Dämlicher Name und das liegt einfach daran, weil es mehr oder weniger so heißt wie der GitHub-User, der das Ganze als erstes entwickelt hat. Und das hat sich dann als Go-To-Lösung entwickelt. Es gibt auch noch ganz, ganz viele andere mit Bekanntes, noch Comfy UI, aber da sind wir dann ganz, ganz, ganz, ganz tief im Hasenbau drin. Aber damit lässt sich dann alles Mögliche machen.

Joel Kaczmarek: Okay, das ist also schon, sage ich mal, eher so das Nerd-Eck. Wenn du jetzt, sage ich mal, Leute vor dir hast, die aufgeschlossen sind, vielleicht grob tech-affin und sagen, ich möchte gerne mit Bild-KI arbeiten, welche Tools von den vieren legst du denen dann immer ans Herz?

Georg Neumann: Wenn die Kenntnisse über JGPT-Nutzung rausgehen, dann gerne mal einfach mit Journey, weil es einfach auch ästhetisch sehr gute Bilder liefern kann und das relativ unkompliziert ist. Mediengestaltern, die eh vielleicht schon einen Adobe-Account haben, liegt es auf der Hand, dass man denen Adobe Firefly mit ans Herz legt. Und wenn sie ein bisschen tiefer eintauchen wollen, aber trotzdem noch nicht ganz so tief in den Hasenbau rein, dann kann man zum Beispiel sowas wie Leonardo AI oder Crea AI zum Beispiel an die Hand, ans Herz legen, weil die halt mit Stable Diffusion sehr, sehr coole Sachen machen können. Und das trotzdem mit einer einfachen Benutzeroberfläche kombiniert ist.

Joel Kaczmarek: Und sag mal, du hast ja eben schon so erzählt, dass man manchmal zum Beispiel sein Logo auch mit reinsetzen könnte in Bilder. Ich stelle immer fest, wann immer man irgendwie Text oder Zahlen in Bildern sieht, die KI genannt sind, sind die immer fehlerhaft. Gibt es da einen Weg, wie man dem Herr wird?

Georg Neumann: Im Moment? Nein. Weil das ein ganz schwieriges Konzept ist für die Bild-KIs, das anzulernen. Also diese Mustererkennung funktioniert da schlichtweg nicht. Weil die hat ja schon Probleme mit Händen, die Bild-KI. Die weiß zwar, da sind so ein paar Würste an Menschen dran, aber dann macht die halt drei bis zehn Stück irgendwie da dran und ist happy. Bei Zahlen wird es ja noch komplizierter. Oder bei Buchstaben. Es gibt so viele Buchstaben, es gibt so viele Wörter, es gibt so viele Sprachen, es gibt so viele Schriftarten. Das für ein Bild-KI-Modell anzulernen, ist extrem komplex. Und die jetzigen können es eben noch nicht gut. Und es wird aber immer besser, sagen wir es mal so. Stable Diffusion 3 ist gerade angekündigt, beziehungsweise schon in der Veröffentlichung. Und da wird es schon deutlich besser. Aber es ist immer noch keine Go-To-Lösung, dass man jetzt einfach hier problemlos digital kompakt in ein Bild reinschreiben könnte. Das wird immer noch fehlerbehaftet rauskommen.

Joel Kaczmarek: Na gut, dann reden wir nicht über Logo, dann reden wir mal über Charaktere, weil ich habe von dir auch gelernt, das ist so eine der Nummer 1 Fragen, die du mal gestellt bekommst. Wie kann ich sowas machen, wie du mit deiner Tochter zum Beispiel, die hast du jetzt in so einen Pixar-Charakter übersetzt und kannst dann mit einem sozusagen Prompt ganze Szenerien erstellen. Wie gehe ich vor, wenn ich jetzt zum Beispiel sage, ich möchte irgendwie einen Model wiederkehrend erzeugen oder so ein Maskottchen oder etwas in der Art?

Georg Neumann: Da gibt es verschiedene Ansätze, je nachdem welches Ziel man verfolgt. Also mal ein Beispiel aus der Praxis, wenn ich jetzt für eine Werbekampagne immer wieder ein ähnliches Gesicht brauche, das nicht immer 100% exakt das gleiche Gesicht sein muss, sondern bloß einen Wiedererkennungswert braucht, dann könnte man das schon über Midjourney nutzen. Das heißt, man kann auch in Midjourney eine sogenannte Charakterreferenz eingeben, das ist ein Befehl. Da gibt man ein Beispielbild vor eines Menschen, am besten halt ein relativ nahes Porträt. Und dann greift er das für die neuen Bilder wieder auf und generiert einen Menschen, der dann kombiniert mit dem Prompt im neuen Bild erscheint. Das ist der einfachste Weg eigentlich, ist aber nicht 100% konsistent, da ist immer eine leichte Abweichung drin, aber zumindest für mal einen schnellen MVP oder für eine kleine Bilderserie, für eine Werbekampagne durchaus geeignet. Wenn man das Ganze natürlich ein bisschen skalierbarer machen will und verlässlicher, dann kommt man eigentlich um Stable Diffusion nicht drum rum. Dann geht es um das sogenannte Feintuning. Das heißt, man feintunt ein bestehendes Stable Diffusion Bild-KI-Modell. Jetzt wird es leider kurz sehr technisch. Man lernt quasi einem großen Modell, das schon besteht, einfach das Konzept dieses Menschen noch an. oder dieses Charakters, dieses Objekts, dieses Bildes, was man dann schlussendlich anprägniert, ist relativ egal. Man kann alles feintunen. Dafür gibt es verschiedenste Wege. Es gibt fertige Online-Tools, die das anbieten. Zum Beispiel ein Anbieter, den ich gerne empfehle, ist Dreamlook AI. Da kann man einfach Bilder hochladen und dann entsprechend mit den Parametern noch einstellen und bekommt schlussendlich ein Bild-KI-Modell ausgeschmissen, das man dann für die Generierung nutzen kann. Ist aber natürlich technisch auch relativ komplex. Also das lohnt sich dann nur für wirkliche Business Cases, wo man ein bisschen in die Entwicklung reinstecken kann. Dann muss man vielleicht auch die Mediengestalter kurz schulen, damit die damit umgehen können. Aber dann hat man mit einem relativ überschaubaren Invest von ein paar tausend Euro in Bild-KI-Modellen ein eigenes, das man unendlich für die Generierung nutzen kann. Und das dann auch kostenlos theoretisch.

Joel Kaczmarek: Wofür fallen denn die paar tausend Euro an? Kostet dieses Streamlook.ai so viel?

Georg Neumann: Ne, das reine Training kostet nicht so viel, aber du musst halt auch Schulen entsprechen. Du bräuchtest, wenn du es zum Beispiel lokal machen wolltest, bräuchtest du ja auch die Hardware, was viele ja nicht haben. Also ich würde jetzt, der MacBook ist nett, das mal auszuprobieren, aber wenn du es wirklich skalierbar haben willst, brauchst du schon eine Workstation, die eine entsprechende Grafikkarte hat. Die fangen so ab, keine Ahnung, 1500, 2000 Euro an, die Rechner. Aber dann fängt es an Spaß zu machen. Dann kannst du wirklich hunderte Bilder in der Stunde durchjagen.

Joel Kaczmarek: Also ist es jetzt für den geneigten Laien notwendig, dass man es auf dieses Niveau bringt. oder kann man, sage ich mal, mit so einer Stable-Diffusion-Geschichte, wie du es gerade beschrieben hast, auch als jemand, der das jetzt so ein bisschen, sagen wir zum Beispiel LinkedIn oder sowas, jemand möchte jetzt sein Foto 50 Mal haben, will nicht jedes Mal zum Fotografen gehen müssen, um sich in einer neuen Szenerie zu zeigen, sondern will es erzeugen. Kann man das auf dem Niveau schon machen oder braucht es da diesen Professionalisierungsgrad, den du gerade beschrieben hast?

Georg Neumann: Dafür gibt es auch fertige Anbieter. Man muss sich halt dann bloß wohl genug fühlen, einen Trainingsdatensatz ins Netz zu einem fremden Anbieter zu schmeißen, den man jetzt vielleicht nicht unbedingt kennt. Da muss man sich halt einfach wohl damit fühlen. Ich mache es halt gerne lokal, gerade bei Fotos meiner Tochter. Die haben im Netz nämlich nichts verloren. Wenn man sich damit wohl fühlt, wenn man eh schon eine Öffentlichkeitsperson ist, die viele Bilder im Internet hat, dann ist es eh schon egal. Dann kann da eh schon jeder machen, was er will damit. Dann kann man einfach zu einem fertigen Anbieter gehen. Der Suchbegriff ist dann AI-Fotoshooting zum Beispiel. Da gibt es diverse Anbieter mittlerweile schon. Da schmeißt du dann einfach fünf bis 15 Bilder in ein System rein. Das kostet dann, keine Ahnung, 60 Euro oder so als Beispiel bei einem Anbieter. Und du bekommst dann einfach einen großen Pool an Bildern in verschiedenen Stilen ausgeschmissen, die dann hoffentlich in einer brauchbaren Qualität sind.

Joel Kaczmarek: Und was sagst du, hast du mal ausprobiert, ist es zumutbar, taugt das oder ist es eher mau?

Georg Neumann: Ich habe es vor einem halben Jahr mal ausprobiert, da war es noch so durchwachsen, da war ab und zu mal so ein Volltreffer dabei, aber der Großteil hat nicht getaugt. Mittlerweile sollen die angeblich deutlich besser sein.

Joel Kaczmarek: Lohnt sich sowas für Leute wie dich eigentlich, sowas als Service anzubieten, dass du sagst, du trainierst das auf deren Gesichter und bist dann der Go-To-Guy dafür?

Georg Neumann: Ne, also für mich persönlich nicht. Ich habe es teilweise schon gemacht für Kunden oder auch als Spaß mal für Leute oder als kleine Gefälligkeit. Zum Beispiel für den Paul habe ich letztens ein Modell trainiert, damit er sich als Piloten darstellen konnte und solche Späße. Das mache ich schon, aber das ist finanziell, lohnt sich ehrlich gesagt nicht, weil der Aufwand, den ich da reinstecken muss, da gibt es auch Fiverr-Services, die das entsprechend deutlich günstiger machen, also Lohnt sich im Moment nicht.

Joel Kaczmarek: Paul trägt doch mal Basecap. Wie soll der denn hier so eine Pilotenbrille aufsetzen und so einen Helm? Geht ja gar nicht.

Georg Neumann: Die Bild-König hat es geschafft.

Joel Kaczmarek: Ja, cool. Okay, also Kern schon mal verstanden. Und ich meine, die Anwendungsfälle, die sind ja echt vielfältig. Also du kannst ja sagen, wie gesagt, machst mir so eine Art Maskottchen, eine kleine Leitfigur. Du kannst dir irgendwie Models schaffen, die dann deine Produkte bebildern oder halt dich selbst in Portraitformen für LinkedIn und Co., Jetzt wäre natürlich noch interessant, wie komme ich denn, sage ich mal, zu ganzen Szenerien? Also ich habe vielleicht eine Skizze im Kopf, ich habe eine Beschreibung und will dann zum, ich weiß gar nicht, wie man sagt, zum Konzept. Also vielleicht machst du ja so einen Zwischenschritt, dass du sagst, es gibt Bildkonzepte als Text und dann erst das erstellte Bild. Wie gehst du da so vor?

Georg Neumann: Ja, da gibt es auch verschiedenste Ansätze. Je nachdem, wie begabt man jetzt zum Beispiel auch ist, wenn man gut zeichnen kann, ist Bild-KI extrem mächtig. Weil man kann aus einer Skizze wirklich ein fertiges Visual schaffen. Das heißt, man kann auch für Produktdesigner, für Architekten, für Illustratoren, für Grafikdesigner, die können damit extrem gut und schnell arbeiten, gerade in der Ideation- und Konzeptionsphase. Das heißt, von einer schnellen, fixen Idee zu einem fertigen Visual, das man vielleicht schon im ersten Pitch-Deck oder in der ersten Präsentation für den Kunden reinballern kann, das ist extrem schnell. Also da kann man sich Stunden an Arbeit sparen. Da gibt es verschiedenste Wege. Thema ist zum Beispiel bei Adobe Firefly mit der Strukturreferenz. wo ich ihm einfach auch schon eine Skizze reingeben kann für den groben Bildaufbau. Das heißt zum Beispiel, ich will mein Header-Bild für die Website basteln und weiß genau, auf der rechten Seite brauche ich meinen Platz für die Headline. Ja, dann skizziere ich das halt ganz grob, wo was sein soll und gebe ihm das als Strukturreferenz ins System rein.

Joel Kaczmarek: Also ich mache jetzt eine Bleistiftzeichnung, sage ich mal, davon ein Foto, lade es hoch und kriege dann hinterher ein geil gemachtes Bild.

Georg Neumann: Und je nachdem, wie detailliert die Skizze ist und wie viel Freiraum du der KI einräumst, da gibt es dann meistens so einen Schieberegler, wie detailliert er das Bild aufgreifen soll oder wie viel Freiheit man ihm quasi kreativ gibt. Und dann kombiniert mit dem Prompt und vielleicht noch einem Stil, den man ihm dazu gibt, spuckt er dann das Bild aus.

Joel Kaczmarek: Wer ist denn eigentlich er? Also von welcher Tool-Umgebung sprechen wir hier, wenn man sowas machen möchte?

Georg Neumann: Da würde ich bei Adobe Firefly anfangen oder dann spezialisierte Stable Fusion Tools. Da gibt es zwei sehr mächtige bei Stable Fusion. Einmal Crea AI, also K-R-E-A, Punkt AI, wie man es halt spricht. Und Leonardo kann es übrigens auch entteilen, aber Crea AI ist dann noch ein bisschen spezialisierter. Und ganz spezialisiert ist dann auch noch der Anbieter Viscom, der ist speziell auf Designer zum Beispiel konzentriert.

Joel Kaczmarek: Ja geil, also dann kann ich also im Prinzip her hingehen, fotografiere so meinen Tonschuh vom letzten Jahr, wenn ich jetzt Sportartikelhersteller bin, sag hier die Fläche blau, hinten noch irgendwie ein Swoosh oder so ein geiles Modul dran und dann kriege ich das Ding sozusagen als fertiges Bild gebaut.

Georg Neumann: Ja, da ging auch letztens durch LinkedIn so ein Video so semi-viral durch, wo jemand Crea eingenutzt hat, genau für diesen Use Case. Das heißt, er hat ein Bild von einem alten Sneaker oder von einem alten Turnstuhl reingepackt und hat dann mit Live-Generierung gearbeitet. Das heißt, er hatte quasi auf dem linken Bild hat er ein Screenshot oder das Foto vom Schuh reingepackt. Und hat dann rechts live den Output gesehen, was die KI daraus macht. Weil das läuft auch semi-live, das heißt mit ganz kurzer Latenz sieht man die Veränderungen am Bild. Dann hat er seinen Prompt eingegeben, keine Ahnung, vielleicht Product Mockup, Fotoshooting von einem Sneaker oder einem Turnschuh. Steht dann im Prompt entsprechend drin, vielleicht noch ein paar andere Parameter fürs Licht oder für den Stil. Und dann in der linken Fläche hat er das Bild entsprechend weiterverarbeitet. Das heißt, er hat reingescribbelt, er hat Farbflächen geändert und so weiter. Und so konnte er auf Basis von einem bestehenden Foto was komplett Neues kreieren und hat dann ein richtig cooles Sneaker-Design draus gemacht.

Joel Kaczmarek: Ja, crazy. Das muss ja eigentlich für alle Bereiche, die, sage ich mal, designorientiert sind, relevant sein. Also ich denke jetzt gerade auch so an Architektur. Bilder sowieso, Bildhauerei, da kann ich ja ganz viel sozusagen skizzieren, was dann hinterher schon mal in virtuelle Form kommt.

Georg Neumann: Ja, voll. Also wir haben auch gerade schon erste Anfragen von Architekturbüros von Größeren, damit die da halt weiter abgeholt werden da drin, weil für die ist das extrem mächtig. Auch schon das Thema Fassadenstudien zum Beispiel, die haben eine grobe Gebäudeform vielleicht schon vorgegeben, auch durch die Umgebung, durch Bebauungspläne und so weiter. Aber die überlegen jetzt noch, ob sie Fassade XY oder Z, Beton, Holz oder verputzt nehmen sollen zum Beispiel. und können das einfach easy ganz schnell ausprobieren.

Joel Kaczmarek: Kann man denn eigentlich generell damit, sage ich mal, bestimmte Bildteile behalten und nur andere erzeugen? Weil ich denke gerade so, wenn jetzt der Architekt da seine Fassade hochbaut, hier Haus 1, Haus 3 und ich baue Haus 2 in der Mitte, dann sollen ja 1 und 3 in der Bilderzeugung quasi da bleiben und die KI soll nur zeigen, was kannst du dazwischen bauen. Und ich habe immer so das Gefühl, wenn ich es mit Photoshop zum Beispiel mache, dann ändert der auf einmal Sachen, die ich gar nicht geändert haben möchte. Weißt du, was ich meine?

Georg Neumann: Ja, das ist das sogenannte In-Painting, wenn man von Bill-Key spricht. Das heißt, man kann auch einzelne Bildteile bloß maskieren. Das heißt, man geht mit dem Pinsel drauf und kann dann diese Bildteile zum Beispiel bloß austauschen. Das funktioniert eigentlich relativ gut.

Joel Kaczmarek: Crazy Shit. Und sag mal, wo wir jetzt schon über Gebäude reden. Also linkes Haus ist schon da, rechtes Haus ist schon da. Also ich denke an die Business-Kontexte. So und jetzt hast du gerade von Architekturbüros geredet. So ein anderer Case, der mir einfällt, ist so Reiseunternehmen. Und ich stelle mir gerade so einen Reiseanbieter vor, der dann irgendwie so Bebilderung macht für irgendwie eine Pauschalreise. und dann hast du aber genau dasselbe Problem, was wir eben auch schon mal hatten, dass du vielleicht Zenerin hast, aber es sieht so ein bisschen Altbacken aus. Ich moderiere das natürlich geschickt an, weil ich weiß, du sitzt an solchen Sachen und fand das einen schönen Case. Magst du uns da mal abholen?

Georg Neumann: Ja klar, also gerade auch das Thema Aktualisierung von Fotoshootings. Das heißt, du hast ein Fotoshooting aus 2012 mit Menschen drin und die Menschen sehen halt entsprechend ein bisschen altbacken aus. Der Look and Feel passt einfach nicht mehr ganz so gut. Ja mein Gott, dann tauschst du die Menschen halt aus. Also natürlich kann man das dann auch teilweise so, je nach Größe des Fotoshootings, teilautomatisieren, dass auch die Menschen automatisch erkannt, automatisch maskiert und dann auch automatisch ausgetauscht werden. Ist noch ein bisschen janky im Moment, da kommt noch ein bisschen weirdes Zeug dabei raus, aber mit Handarbeit und die Retusche quasi zu machen, ist überhaupt kein Problem. Das heißt, man pinselt einfach bloß so ein bisschen die Leute aus, die man ausgetauscht haben möchte, gibt einen Prompt rein, der halt modernere Menschen ausspuckt, also modernere Frisuren, modernere Kleidung und so weiter und dann nimmt er die Basis her. Und das Geile ist, man kann dann sogar Zwischenschritte einbauen, dass er die Pose sogar vorher ausliest. Das heißt, ein zweiter KI dazwischen liest einfach nur die Pose aus, dieses Menschen, der da abgebildet ist, und nimmt die wieder her für die Neugenerierung. Das heißt, der Mensch hat dann exakt die gleiche Körperhaltung, schaut vielleicht sogar in die gleiche Richtung, hat vielleicht sogar die gleiche Mimik, aber nur die Frisur, Klamotten und so weiter ist aktualisiert.

Joel Kaczmarek: Crazy. Ist es dann immer noch Adobe Firefly, von dem wir reden, oder womit mache ich sowas?

Georg Neumann: Ne, da ist man jetzt definitiv bei Stability-Fusion gelandet. Da ist man jetzt schon tiefer im Hasenbau, kann man aber auch relativ leicht ablichten.

Joel Kaczmarek: Und sag mal, wir haben ja auch ein anderes tolles Mitglied bei uns in der Business-Community, nämlich die liebe Carly. Und Carly werkelt auch gerade daran, dass sie mit KI im Fashion-Bereich Dinge tut, weil Carly ist Stilberaterin, also die bringt einem im Prinzip bei, wie man Kleidung auswählt und Stile auswählt, die genau zur eigenen Persönlichkeit passen und ist da unfassbar gut drin, also Carly Mühlbach, wer jetzt schon mal auf der Suche ist und neugierig. Ich weiß, die macht da mit dem JC, nenne ich ihn mal liebevoll, dem Johannes K. Albers, basteln die gerade an einem ziemlich spannenden App-Konzept und testen da aus. Und mit der hast du doch, glaube ich, auch mal was experimentiert, ne? Weil jetzt nach hinten raus kommen wir mal so dazu, dass wir so ein paar spaßige Anwendungsfälle basteln. Also, was habt ihr da gemacht?

Georg Neumann: Ja, ich war ja auch beim letzten Makers & Shakers-Treffen, war ich auch bei der Kali in der Session und dann sind wir halt draufgekommen, hey, ich sollte eigentlich mehr Warmetöne anziehen. Habe ich heute natürlich wieder falsch gemacht mit schwarzem Shirt. Und das habe ich letztens auch auf LinkedIn einfach mal ausprobiert, aber halt mit Bild-KI. Das heißt, ich habe ein Bild von mir generiert mit einem Bordeaux-farbenen Shirt, habe die Kali dann auch gleich, Spaß aber, verlinkt und sie war gleich Feuer und Flamme. Weil sie könnte jetzt natürlich theoretisch auch für ihre Kunden, wo sie Stilberatung macht, einfach mal die Klamotten austauschen, um Farben neu zu testen. Geil. Oder sogar ganz konkret werden. Es gibt mittlerweile sogar Workflows mit Bild.KI, wo ich wirklich konkrete Klamotten jemandem anziehen kann mit Bild.KI.

Joel Kaczmarek: Crazy.

Georg Neumann: Das heißt, ich gebe ihm zum Beispiel einen Freisteller, einen Techshot oder ein Produktfoto von einer Lederjacke und die wird dann zumindest halbwegs akkurat, wir sind noch nicht bei 100%, an diese Person quasi drangeneriert.

Joel Kaczmarek: Ich bin jetzt gerade mal hier auf LinkedIn am Suchen. Ich werde jetzt gleich mal gucken parallel. Ah, hier, ich sehe dich in Weinrot. Ja, sieht gleich gut aus bei dir. Stimmt, crazy. Danke. Also, kriegst du gleich auch wieder ein paar neue Follower. Georg Neumann hier auf LinkedIn. Ja, krass, weil ich meine, da hast du natürlich einen super Case, wenn du jetzt hier an die Zalandos und Asos und About Yous dieser Welt denkst. dass man vielleicht die Kleidung, die da verkauft wird, mit dem eigenen Gesicht schon vertesten könnte, oder?

Georg Neumann: Ja, die sind dann natürlich alle dran. Die laufen aber alle noch in Probleme, weil halt die Kleidung noch nicht zu 100 Prozent wiedergegeben wird. Das heißt, da werden natürlich auch die Hersteller auf die Barrikaden gehen noch. Weil natürlich so ein Thema Reißverschlüsse, Knöpfe und so weiter, das ist noch zu kleinteilig, dass es die Kunst-KI quasi so gut wiedergeben kann, wie es der Hersteller sich wahrscheinlich wünscht oder auch Zalando selbst. Weil nicht, dass dann auch beim Kunden eine falsche Erwartungshaltung entsteht und der sich dann am Ende beschwert, dass der Reißverschluss doch an der falschen Stelle ist.

Joel Kaczmarek: Aber dieses, wie hast du's genannt, Maskpainting oder wie hieß das, wenn man einfach nur sozusagen

Georg Neumann: Ja, Inpainting.

Joel Kaczmarek: Inpainting. Müsste es nicht damit gehen, dass du sagst, ich fotografiere das auf einem Model, hier der Georg, der zieht das jetzt mal für die Kamera an, dann inpainte ich mal sein Gesicht und wenn der Joel jetzt kommt, lädt ein Foto von sich hoch, dann hast du auf einmal Joels Kopf drauf, aber die Klamotte bleibt gleich. Geht das so nicht?

Georg Neumann: Ja, schon, aber gerade Gesichter austauschen wäre jetzt easy, aber Klamotten austauschen, wie gesagt, es ist noch nicht bei 100 Prozent, wir sind so bei 80, 90 Prozent. Also nicht mehr lange, dann kannst du wahrscheinlich bei Zalando einfach Bilder von dir hochladen und entsprechend die Klamotten austesten.

Joel Kaczmarek: Spooky, ne? Sieht man so einen ganzen Feed dann nur mit seiner eigenen Gusche da. Krass. Und vielleicht noch ein letzter spannender Use Case, den ich von dir kennengelernt habe, war das Thema Internationalisierung. Weil, wo wir gerade über Zalando reden, komme ich auch wieder drauf. Ich saß vor ein paar Wochen mal zusammen mit ein paar Verwandten. In dem Fall zwei Frauen, die dann meinten so, ja, ich finde es immer schade, wenn ich im Onlineshop Klamotten kaufe und dann tragen es immer irgendwelche Models, die aber gar nicht aussehen wie ich. Also es geht gar nicht darum, ob die schwarz, asiatisch sind oder blond oder was weiß ich, sondern sie sehen nicht so aus wie ich, sondern ich will ja sehen, wie sieht es an einem Typen aus wie bei mir. Und wenn ich dich jetzt richtig verstanden habe, müsste man ja theoretisch dann damit auch hingehen können und müsste Dinge ganz schnell lokalisieren können, also Webseiten. Bei der Kleidung haben wir jetzt schon verstanden, okay, die wird vielleicht nicht perfekt wiedergegeben auf mein Gesicht, aber ich könnte theoretisch ja schon mal sagen, hier die Webseite möchte ich jetzt mit Leuten sehen, die so aus meinem Umkreis zum Beispiel kommen.

Georg Neumann: Ja, sollte theoretisch machbar sein, auch relativ dynamisch sogar. Das heißt, wenn jetzt ein Onlineshop genug über dich weiß, zum Beispiel, wenn du jetzt Dauerkunde bist, dann könnte der das durchaus hinbringen, dass der wirklich alle Produktfotos entsprechend auf einen Typ trimmt, der dir zumindest sympathisch ist oder der dir ähnlich sieht oder so. Das wäre auf jeden Fall denkbar.

Joel Kaczmarek: Hast du da schon erste Projekte bei dir gemacht oder erste Anfragen für solche Dinge?

Georg Neumann: Ja, an so einem Projekt bin ich gerade dran, wo man quasi ein altes Fotoshooting aktualisiert, wo man quasi ein Fotoshooting aus 2012 in die Jetztzeit bringt. Da bin ich gerade dran. An so Internationalisierungsgeschichten nicht, aber das ist im Prinzip eigentlich fast das Gleiche. Also was ich jetzt schlussendlich austausche, ist ja egal.

Joel Kaczmarek: Ich meine, wird ja für Online-Shops wahrscheinlich auch ein Riesenthema sein, Produktfotografie und PIM, also Product Information Management heißt es, glaube ich. Product Information Management, sprich die Texte, die zu Produkten sie begleiten und die Bilder. Also ist das quasi dann so die Zukunft, dass dann jeder Online-Shop zukünftig quasi ein Produkt vertreibt und sich seine Bilder und seine Texte dafür selber erstellt?

Georg Neumann: Für die Großen auf jeden Fall ein gangbarer Weg. Also das wird die Zukunft sein, weil es wird immer schneller, es wird immer dynamischer. In Zukunft kannst du wahrscheinlich auch die Bilder live generieren, je nachdem, welche Kunde sie anschaut. Also ich gebe dem Ganzen noch ein paar Jahre, dann sind wir so weit.

Joel Kaczmarek: Jetzt habe ich Bock mit dir nach hinten raus noch so zwei Sneak Previews zu machen. Eine kurze vielleicht, weil wir haben uns ja bisher sehr stark auf das Thema Bild konzentriert, wäre bewegtes Bild. Was hast du denn so im Bereich Video schon auf der Uhr?

Georg Neumann: Ja, Video, da geht ja auch jetzt schon einiges. Ich meine, viele haben ja schon von OpenAI Sora gehört, was aber noch nicht frei zugänglich ist. Das wird noch ein bisschen dauern. Aber es gibt auch jetzt schon auf dem Markt vieles, was man nutzen kann. Wer tief drin steckt in der Materie, also gerade Videocutter, Videobearbeiter und so weiter, die können auch jetzt schon mit Videomaterial retuschieren. Was im Photoshop als generative Füllung geht, geht jetzt sogar auch schon für Video. Das heißt, da rennt gerade ein Hund durch deine Szene, den du gar nicht drin haben willst. Ja, mein Gott, mach die Bild-KI den halt raus. Früher wäre das extrem aufwendig gewesen, jetzt maskiert man den mit so einem kleinen Pinselchen, dann merkt die KI das und der wird dann einfach rausretuschiert. Oder ganz beliebt, was auch jetzt schon problemlos geht, ist einfach Standbilder in Bewegung zu versetzen. Das heißt, man kann den Social Media Feed vom Unternehmen vielleicht einfach cool aufpimpen, indem man die Standbilder, die man sonst hätte, einfach in Bewegung versetzt. Dann gehen halt dann die Wolken durchs Bild, der Vorhang im Moodshot bewegt sich halt im Wind so ein bisschen oder die Köpfe drehen sich so ein bisschen, da ist schon viel möglich.

Joel Kaczmarek: Gibt es da ein, zwei Tools, die du empfehlen kannst für oder ist das noch im Finden?

Georg Neumann: Crea-AI hat jetzt was ganz Neues rausgebracht, das ist auch ganz cool, da kann man auch zwei Bilder reingeben und er verschafft quasi eine Transition dafür. Leonardo-AI schafft es auch schon, so ein bisschen Bilder in Bewegung zu versetzen, ist aber ein bisschen janky. Was aber sehr gut funktioniert, ist zum Beispiel Runway, das ist auch mit der Anbieter, der da am tiefsten drinsteckt, sag ich mal, den kann man da durchaus empfehlen.

Joel Kaczmarek: Und der zweite Sneak-Preview, den ich damit dir machen möchte, ist eher ein ernsterer. Nämlich so das Thema Schutz von Daten, Deepfakes. Also, du fakest quasi jeden Tag Bilder, könnte man sagen, und bringst Kunden bei, wie sie Bilder faken. Was ist denn so dein Blick da drauf? Weil wir können uns ja zukünftig eigentlich bei Bildern gar nicht mehr sicher sein, sind die echt oder sind die erzeugt? Es gibt irgendwie kaum noch Unterscheidungsmerkmale. Was ist da so eine Haltung, die du entwickelt hast?

Georg Neumann: Man sollte halt unbedingt darauf achten, dass Bilder mit sensiblen Daten nichts im Netz verloren haben. Also Bilder von Kindern sollten früher schon nicht ins Netz und jetzt noch dreimal nicht, weil jemand mit krimineller Energie kann mit den Bildern machen, was er will. Also man kann da ganz schlimme Dinge machen und entsprechend auch zum Beispiel Tonaufnahmen von Kindern ist das Thema ja auch für Deepfakes und für den Enkeltrick und so weiter. Das nimmt ja ganz neue Sphären an. Wenn du halt von der realen Stimme deiner Tochter angerufen wirst, dass sie gerade entführt wird und 5000 Euro braucht, Dann glaubst du das vielleicht eher, als wenn das bloß eine WhatsApp-Nachricht ist. Und da muss man halt in Zukunft noch viel mehr sensibilisieren für das Thema und halt auch bei Bildern nochmal vielleicht genauer hinschauen.

Joel Kaczmarek: Ich meine, was ja gerade bei dir auch anklang, wie ist es eigentlich bei Bild-KI mit Sexualisierung? Also bei Chat-GPT funktioniert das ja nicht, da haben sie ja einen Schutz. oder du kannst jetzt auch kein Bild von Donald Trump nehmen, also bekannte Personen, sowas macht der in der Regel auch nicht. Bei den anderen Tools, die wir hatten, also wäre es jetzt theoretisch möglich, dass du zum Beispiel sagst, ja hier den Joel, den bilde ich jetzt mal oben ohne ab. Kann man ja auch im positiven Sinne sehen, kann man ja auch Models draus machen. Also du kannst ja zum Beispiel sagen, ich mache jetzt eine Onlyfans-Seite für eine fiktive Frau, die sich da irgendwie ein bisschen barbusig zeigt. Also man muss ja nicht mal ans Negative gleich denken, aber ist ja schon was, was man vielleicht mal wissen möchte, wenn man mit Bildern im Netz hantiert, ob sowas eigentlich auch funktioniert.

Georg Neumann: Ja, natürlich. Also das ist auch eine Community, die auch ein starker Treiber technischer Weiterentwicklung ist. Alles, was um Sex geht und sexualisierte Bilder, ist natürlich ein Innovationstreiber in dem Bereich, muss man leider so sagen. Die meisten Systeme sind entsprechend moderiert. Das heißt, bei Midjourney, Dal-E und Firefly, die sind entsprechend stark moderiert. Bei Dal-E schaffst du es noch nicht mal, Bilder von Menschen zu generieren, die vielleicht baden. Firefly ist da auch entsprechend sehr restriktiv, weil die natürlich auf dem US-Markt auch bestehen wollen. Bei Stable Diffusion gibt es auch Modelle, die komplett unzensiert sind. Also die offiziellen großen Modelle von zum Beispiel Stability AI, die nicht, die sind entsprechend moderiert, dass da entsprechend weniger möglich ist. Aber gerade die ersten, die frühen Stable Diffusion Modelle, da gibt es teilweise komplett unzensierte, mit denen man da natürlich Alarm machen könnte.

Joel Kaczmarek: Na gut, vielleicht gibt es dann auch Nuckedeys männliche Art auf Onlyfans. Soll ja auch vorkommen. Dann hoffentlich nicht du und ich. Nein, aber hey, lieber Georg, spannender Ritt. Also super geil, hat man ja schon mal ein bisschen was zum Ausprobieren. Abschließend, wenn man mit dir arbeiten möchte, wie macht man das?

Georg Neumann: Einfach auf marketing-ki.de gehen, da informieren wir über unsere Schulungen. Ich mache so ein bisschen Projektarbeit, wo ich entsprechend berate und Bild-KI-Systeme auch entwickle und Workflows. Aber das bloß eigentlich hauptsächlich nebenbei, damit ich weiter dran bleiben kann zum Lernen. Aber wenn ihr Probleme habt, haut mich einfach an. Ich habe einen guten Rundumblick und auch mittlerweile ein sehr starkes Netzwerk in dem Bereich.

Joel Kaczmarek: Ja, mega. Also Anne hat mir auch schon gemerkt, die mal ein Teil werden sollte, Makers und Checkers. Aber wenn ich mir überlege, wie viele Leute wir hier eigentlich heute genannt haben, die da mitwirken an solchen Dingen. Also freue ich mich ja auch, dass sowas entsteht. Aber ansonsten, vielen, vielen Dank. Also to be continued. Ich glaube, wir werden mal öfters über KI-Sachen reden. Vielen, vielen Dank, lieber Georg.

**Georg Neumann: **Gerne.

Mehr zum Thema

Künstliche Intelligenz

Diese Episode dreht sich schwerpunktmäßig um Künstliche Intelligenz: Nachdem wir anfangs Erik Pfannmöller von Solvemate regelmäßig vor dem Mikro hatten, um dich zum Profi für Künstliche Intelligenz zu machen, diskutieren mittlerweile Rasmus Rothe (Merantix) und Jasper Masemann (HV Ventures) über dieses innovative Thema. Leicht verständlich bringen sie dir Fachbereiche wie Deep Learning, Neuronale Netze, Maschinelles Lernen & Co. bei.