Dieses Transkript wurde maschinell erstellt. Wenn dir ein Fehler auffällt, schreib uns gerne zu diesem unter redaktion@digitalkompakt.de.
Joel Kaczmarek (00:02.026) Hallo Leute, geht's euch auch so, dass ihr manchmal so ein bisschen nicht mehr hinterherkommt? Oder seien wir ehrlich, vielleicht sogar abgehangen seid, wenn es die ganzen Entwicklungen im Bereich KI geht. Das ist ja bei allem was Textuelles so das eine, aber ich finde manchmal das noch viel schwierigere ist das Thema Bild-KI. Und da habe ich eine tolle Person am Start, nämlich den lieben Georg Neumann, mit dem ich mal ganz fleißig drüber rede, was ich da so tut. Georg kenne ich nämlich aus meiner Business-Community-Makers und Shakers. Und der hat mit dem KI-Marketing-Bootcamp ...
das hat die Instanz geschaffen, wo er sich mit dem Thema Bild KI auseinandersetzt. Weil seine Firma schult im Wesentlichen Marketing Teams und macht noch viele Dinge mehr. Aber sein großes Asset, was ich immer erlebe oder leben darf, ist das Thema Bild KI. Deswegen immer, wenn ich mal wissen will, was tut sich da so, dann quatsch ich mit Georg. Und mehr noch, er hat mir sogar eine eigene Lösung gebaut, die ihr da draußen auch benutzen könnt. Also heute mal bisschen Werbung auch mit reingebaut. Aber was ich wirklich wertvoll halte, die heißt nämlich Flake.
Und mit Flake könnt ihr hingehen, könnt Fotos von euch nehmen, die Maschine trainiert sich auf euch und dann könnt ihr auf Knopfdruck Bilder von euch erzeugen. So. Und dann könnt ihr auf Knopfdruck Bilder von euch erzeugen. Aber dazu später mehr. Jetzt erstmal unser Update in Sachen Bild-KI. Wir werden fleißig natürlich über Chatchi-BT in das neue Modell reden. Wir reden über Mid Journey 7 und mit Reef gibt's ja auch noch einen spannenden neuen Player. Und wer weiß was uns noch so bei dem Weg läuft. Also lieber Georg, schön dass du da bist. Hallo.
Georg Neumann (01:17.774) Hi Joel, schön, dass ich da sein darf.
Joel Kaczmarek (01:20.446) Ja, wie ich schon gesagt hab, KI, so ein schnelles, äh, ja, so eine schnelle Welt, man ja mittlerweile fast sagen. Und dann Bild noch mal komplexer, weil ich würd sagen, für viele Menschen ticken abstrakter. Also, wir erinnern uns vielleicht noch an die frühen Zeiten, wo wir irgendwie Prompten sehr gut hinkriegen mussten und so weiter und so fort. Aber es hat sich viel getan. Und deswegen mit dir mal so, ja, immer schön zu reden. Und vielleicht starten wir mal mit dem, was den Menschen, glaub ich, so am nächsten ist. Nämlich dieses neue Bildmodell, was Chachipiti ja auch gerade rausgegeben hat. Magst mal so dein Big Picture dazu sagen, was du davon so hältst?
Georg Neumann (01:49.184) Ich finde es Bombe. Die haben jetzt wirklich einen großen Wurf damit getan. Die haben an vielen Stellschrauben gedreht, die wirklich, wirklich viel Potential haben. Und wer auf LinkedIn aktiv sein sollte, der hat es ja wahrscheinlich gesehen. Da wurde gleich extrem fleißig rumprobiert mit Stilübertragungen, mit der Verwandlung eigener Fotos und generell halt mit der Bildgenerierung damit. Aber Big Picture ist, es kann endlich gut Fotos generieren. Das war ja immer der Alptraum beim Vorgänger Dull E3, der vorher in Checi Pitti integriert war.
Das neue Bild-KI-Modell dahinter kann jetzt zum Beispiel auch Fotos sehr, gut generieren und das auch mit einer sehr, guten Prompt-Treue sozusagen. Also es hält sich sehr gut an die Kommandos, inklusive sogar der Generierung von Text in die Sachen rein, inklusive Generierung von komplexen Textfolgen, wie jetzt in Comics oder in Infografiken sogar. Das ist ja auch absolutes Novum.
Joel Kaczmarek (02:41.39) Ja, ich habe mit Hamid, mit dem ich ja viel über KI rede, auch eine Session dazu gemacht. Hat er genau das hervorgehoben und ich frage mich, was ist denn so deine Beobachtung? Wie gut funktioniert das wirklich von Bild zu Bild, eine Figur zum Beispiel und ein Setting beizubehalten? Also gefühlt gelingt es manchen Leuten so. Ich habe immer den Eindruck, ich bin vielleicht ein bisschen zu doof dafür.
Georg Neumann (03:00.415) hängt immer vom eigenen Anspruch ab. gerade bei Fotos von echten Menschen ist immer noch eine ziemliche Abweichung drin. Das ist immer näherungswert, das ist ganz nett. Auch für die Konzeption zum Beispiel kann man das super gut einsetzen. Aber wo es natürlich glänzt, ist wenn man eine Stilübertragung anstrebt. Das heißt, wenn man jetzt nicht ein reales Foto von sich damit generieren will, sondern in einem anderen Stil. Und das war ja dann auch der Grund, warum plötzlich Link in Rand voll mit irgendwelchen Actionfiguren waren. Was bis jetzt immer noch anhält. Ich sehe immer noch neue.
Joel Kaczmarek (03:28.894) Ja, das stimmt. Dadurch enttarnst du es auch schon wieder so. Da gefühlt es für mich so an, krass, klassischer KI-Case. Aber es ist ja vielleicht auch interessant, dass es so in den Habitus übergeht der Leute. Für mich ist der heilige Gral das, was du mit dem Flake gebaut hast. Können wir gleich am Rand noch mal streifen. Geht es mit Shadgy Petitle mittlerweile gut, dass ich drei, vier, fünf, sechs, sieben Fotos von mir hochlade und er anschließend mich in einem Setting meiner Wahl setzt, wenn ich was prompte und sage hier
Hab grad ein Podcast gehabt mit jemandem, der irgendwie, keine Ahnung, Fahrunternehmen hat. Ich möchte gerne in einem Taxi sitzen und irgendwie diesen oder jenen Gesichtsausdruck haben. Funktioniert sowas mit ChetJPT jetzt mittlerweile gut?
Georg Neumann (04:05.229) Wenn man es ein bisschen konzeptionell übertreibt, zum Beispiel YouTube-Thumbnails oder so was, da kann es gut funktionieren, wenn man auch noch extreme Emotionen reinbringt, die das Gesicht ein bisschen verzerrt. Für Businessfotos oder ein typisches LinkedIn-Portrait oder LinkedIn-Selfie würde ich es nicht nehmen, weil es immer nur ein Nährungswert ist und die Person tatsächlich verfremdet. Du würdest schlichtweg nicht nach dir aussehen, du das versuchst. Deine Mutter würde dich nicht erkennen damit. Also ... ja ...
Joel Kaczmarek (04:31.758) Scheiße.
Georg Neumann (04:33.997) Also es hängt quasi einfach nur vom Use Case ab. Für manche geht's, für manche noch nicht.
Joel Kaczmarek (04:40.052) Und ist doch vielleicht eine gute Gelegenheit, mal ganz kurz über deinen Flake zu reden. Also ich mach hier so unverschämt Werbung, weil ich das einfach ein echt cooles Tool finde. Also es mal den geneigten Hörern und Hörern zu beschreiben, ich würde euch das so vorstellen, es schreibt sich F-L-A-I-C. Und ich gehe auf diese Seite, nachdem ich einen Account hab, nachdem meine... Also ich... Vielleicht holen wir es hier mal anders ab. Es braucht sozusagen eine Trainingsphase, das heißt, du setzt dich hin, trainierst mit mehreren Fotos von mir und das muss jetzt nicht fotograf sein, sondern es ist so...
Die Frau oder der Mann von einem macht mal so fünf Bilder aus unterschiedlichen Perspektiven und unterschiedlichen Hintergründen. Man zeigt ein paar Gesichtsausdrücke. Also, das ist alles smartphone-machbar. Wovon wir hier reden. Du trainierst das Modell und anschließend ist es wirklich so, ich hab ein Textfeld, wo ich einen Prompt eingeben kann. Durch einen Button-Druck wird der Prompt verbessert, sodass er wirklich die wichtigsten gängigen KI-Prompt-Aspekte, sag ich mal, abbildet. Und anschließend kann ich mir noch die Ratio aussuchen, also welche Bildverhältnisse, individuelle angeben.
Und dann brauch ich eigentlich nur noch sagen, ich 8, 16, 32 oder ich glaub 1, 4, 8, 16, 32 sind glaub ich so die Sprüche ungefähr. Also wie viele Bilder ich von mir haben möchte. Womit machst denn du das eigentlich? Weil wie gelingt denn das, dass ich auf den Knopf drücke, hab einmal dich was trainieren lassen und hab dann 16 Fotos von mir, wie ich im Taxi sitze und irgendwie auf den Laptop kloppe.
Georg Neumann (05:48.566) Also ich bin halt einfach hergegangen, weil ich komm selbst aus der Fotografie. Deswegen ist mein Anspruch an generierte Bilder von mir selbst zum Beispiel sehr, hoch. Und deswegen hab ich mich hingesetzt, hab einen Workflow entwickelt, wie ich das Maximum aus KI generierten Portraits rausholen kann. Und das fanden dann auch andere so toll, wenn ich das in meinen Workshops demonstriert hab, wie ich halt Bilder von mir generiere. Weil wenn ihr mir auf LinkedIn folgt, da gibt's quasi keine echten Bilder von mir. Und das
war dann so gut der Anklang, dass ich mir gedacht habe, hey, da muss ich doch eine App dazu entwickeln, weil es gibt tatsächlich Player auf dem Markt genug. Also es gibt genug solche Services, wo man irgendwelche Bilder von sich hoch lädt. Dann wird automatisch ein Modell trainiert und dann kriegt man Bilder ausgegeben. Das Problem ist, die meisten davon sind einfach schlichtweg schlecht. Das heißt, Ernährungswert ist nicht. Also die Ähnlichkeit zur realen Person ist einfach nicht gegeben. Die Hintergründe sind unsauber, die Hände sind kaputt und all solche Kleinigkeiten. Deswegen habe ich mir gedacht, das kann ich doch besser.
Und habe dann eben so bisschen nebenbei Flake entwickelt. Und mein Anspruch war halt auch, ich will das ganze datenschutzkonform machen. Das heißt, ich will nicht, dass da Porträts in irgendeine Cloud zu einem automatisierten Service geladen werden, wo ich gar nicht weiß, wie die Daten verarbeitet werden, sondern bei uns ist das quasi wirklich noch ein händischer Prozess. Das heißt, ich selektiere auch für den Kunden die Trainingsdaten, bearbeite die gegebenenfalls noch, gebe das Ganze dann ins Training, evaluiere auch das beste Modell, weil wir trainieren dann auch mehrere tatsächlich. Und erst dann geht das wirklich in die App für den Kunden.
Da steckt dann mein Workflow dahinter, wie das Maximum an Bildqualität rauskommt. Und das Coole ist, jeder Kunde bekommt auch ein Individuel auf sich abgestimmt, ein kleines Sprachmodell quasi mit integriert, wo die dann auch den Prompt verbessern. Und das mache ich auch individuell pro Kunde.
Joel Kaczmarek (07:28.974) Ja, okay, krass. Also ich finde, ist einfach so das, was ich mir immer wünsche, dass ich quasi in der Lage bin, mit KI Bilder von mir zu erzeugen in unterschiedlichen Settings. cool, dass es es bei dir gibt. Und schade, dass es noch nicht einfacher auch mal am Markt gibt. Oh gut, für dich. Von daher gleich ein Modell draus gebaut, finde ich super. Und was liegt denn da drunter, sag mal, was ist denn eigentlich die Software, mit der du arbeitest?
Georg Neumann (07:48.0) Also ich arbeite mit Comfee UI, wenn ich irgendwelche Bild-KI Workflows entwickle, das ist einfach ein nodebasiertes Bildgenerierungstool, extrem krasse Lernkurve, sehr, steil nach oben, wenig zugänglich, aber eine sehr, coole Open Source Community, die dahinter steckt. Und die Technik, dahinter steckt, ist schlichtig. Wir trainieren ein Flux-Laura für die einzelnen Personen. Das machen wir dann mit so Tools wie Koja SS und so weiter. Aber das wird jetzt viel zu technisch. Da steckt also ein bisschen Know-how dahinter und auch Aufwand und
Wenn ich dann zum Beispiel ein Modell von dir trainiere, dann glüht hier einfach meine Workstation 6, 7, 8 Stunden lang und heizt mein Raum auf. Das wird jetzt im Sommer noch spannend, wie ich das löse. Die wird dann wahrscheinlich in den Keller wandern und ich muss irgendwelche Kabel durch die Wände legen oder so.
Joel Kaczmarek (08:29.742) Okay, also ich kann aber auch schon mal aus dem Nähkästchen geplaudert erzählen, meine Frau benutzt das auch und dann hast du zu ihr gesagt so, das ist ein schönes Foto, das ist aber nicht von mir oder? meint sie doch! Also dein Modell trickst dich sogar schon aus, von daher, besta...
Georg Neumann (08:42.509) Ja, da war ich echt mega überrascht. war so ein cooles Bruchfoto, das sie da gepostet hat. Da musste ich echt selbst nachfragen, ob das von Flake ist oder von ihr. Real quasi.
Joel Kaczmarek (08:51.566) Sie gut wir machen weiter also wir haben tschätsche pt wäre jetzt schon mal ein case wenn ich sage mich interessieren bilder von mir selbst mit journey was tut sich da so
Georg Neumann (08:59.181) Genau, mit Journey ist jetzt in der aktuellen Version 7 raus, noch ein bisschen in der Beta, das ist noch nicht ganz offiziell da, aber man kann es jetzt schon nutzen. Ist tatsächlich ein großer Schritt nach vorne, aber nur in Teilen. Also ich bin noch nicht so 100 % happy, weil einfach ein paar Probleme noch da sind. Gerade zum Beispiel Hände sind immer noch ein Problem. Das finde ich bisschen sehr schade, weil es die anderen mittlerweile eigentlich alle halbwegs im Griff haben. Und dass man nicht mehr so viel Ausschuss bei den Händen hat.
Das hat mit Journey 7 noch nicht ganz im Griff, ich hoffe, da können sie noch bisschen nachbessern. Aber ansonsten ist das gerade für stilistische oder sehr ausdrucksstarke Bilder Bombe. Also da kann man wirklich cool was rausholen. Also alle, die vorher schon mit Journey genutzt haben, werden die neue Version jetzt lieben. Weil die auch bei der Hauttextur, bei den Details in Portraits, da ist einfach nochmal eine Schippe oben drauf geschlagen. Das macht einfach Spaß.
Joel Kaczmarek (09:48.514) Ich bin ehrlich gesagt auch durch dich, aber auch durch die Chetchi-PT-Ergänzung von der Weile ausgestiegen bei Mid Journey. Ist es immer noch wie früher, dass man's auf Discord macht und mit voll dem klumpigen Prompt, wo ich mir einen abgebrochen hab?
Georg Neumann (10:02.349) Nee, das hat sich auch geändert. Letztes Jahr haben die langsam angefangen, ihre Oberfläche auszurollen. Die eine schöne Web-App, die ist sehr aufgeräumt und macht Spaß. Damit kann man viel machen. Wir schöne Editoren eingebaut und solche Themen. Das passt jetzt alles. Diese janky Usung, wie man es früher benutzen musste, ist zum Glück vorbei. Das hat mich damals auch immer abgehalten, dass ich da Discord anschmeißen musste. Aber das geht jetzt echt gut.
Und das Prompting ist jetzt auch deutlich besser geworden, weil jetzt da große Sprachmodelle wie T5 Textencoder, das ist jetzt wieder schon zu technisch, dahinter stecken, die einfach die Prompt sehr, gut interpretieren können. Und was da auch tatsächlich eine geile Entwicklung ist, weil Thema Prompt Engineering, man muss jetzt nicht mehr wissenschaftlich an das Thema rangehen. Mit Journey hat es auch einen sogenannten Draft-Modus, wo man dann wirklich Anbilder mit Sprache oder mit Text iterieren kann.
Das heißt, ich muss nicht mehr initial den perfekten Prompt schreiben, sondern ich starte mit einem Grundprompt und interriere dann einfach am Bild mit Sprache oder mit Text.
Joel Kaczmarek (11:04.622) Okay, weil das wäre auch so eine Frage, ich hab an dich. ist ja manchmal so, du machst vielleicht so drei, vier Versuche mit sowas, hast dann eins, da findest du das Element geil, ein anderes Dorf und würdest dann gerne drauf iterieren. Und das war bisher immer so bisschen sperrig. Also es ist besser geworden bei Mid Journey 7.
Georg Neumann (11:18.925) Ja, also es wird immer noch ein neues Bild generiert. Es ist nicht so, als würde er dann Teile aus den Bildern zusammenschnipseln können, sozusagen. Das nicht. Es wird immer noch auf einer quasi auf einer neuen Beschreibung ein neues Bild generiert. Da ist das aber ein Thema, da wollen alle hin, dass man wirklich vernünftig an Bildern bearbeiten kann mit in einem Dialog basierten Bearbeitungsprozess sozusagen, dass auch wirklich das Ganze ganz leicht zugänglich wird, ohne dass man da irgendwie groß mit
mit rumpinseln musst oder sowas, sondern dass es wirklich mit natürlicher Sprache funktioniert. Da wollen alle Anbieter irgendwann hin. Da arbeiten die auch gerade alle dran.
Joel Kaczmarek (11:53.44) Was würdest du denn sagen, was ist denn bei Mid-Journey 7 so das Szenario, wofür du das benutzt? Also was sind so Anwendungsfälle, wofür das ideal ist?
Georg Neumann (12:00.701) Ich hab zum Beispiel letztens einfach mal einen fiktiven Avatar für ein Projekt generieren wollen und hab dann erst mal die Portraits mit Mecherni generiert. Einfach weil die Hauttexturen und so weiter waren super gut. Ich hab da halt eine 40 Jahre alte Frau generieren wollen und das ist eben so eine Herausforderung. Darstellung von Alter korrekt und so weiter, dass es auch wirklich realistisch und authentisch wirkt, ist nicht ganz so einfach und da ist zum Beispiel eine Stärke von Mecherni, weil es einfach das sehr, gut hinbekommt, richtig realistische Portraits mittlerweile hinzukriegen.
und das auch mit einer relativ hohen Auflösung. Ich bin sogar noch einen Schritt weitergegangen und habe dann dieses eine Porträt aus My Journey genommen und habe es dann in JetGPT hergenommen, Trainingsdaten zu synthetisieren. Das heißt, ich habe weitere Ansichten dieser Person in JetGPT generiert, weil da kombiniert man quasi die Stärken von den verschiedenen Tools. Und JetGPT, die neue Bildgenerierung, kann halt sehr gut ...
Bilder, Inputbilder interpretieren und auch neu ausrichten. Das heißt, ich habe dann verschiedene Seitenansichten von dieser einen Person aus mit Journey generiert, auch mal ein Bild ab der Hüfte oder auch ein Ganzkörperporträt, bis ich eben genug Trainingsdaten hatte, einen fiktiven Charakter zu trainieren. Und den kann man jetzt tatsächlich auch bei mir in Flake nutzen. Der kommt jetzt in die Demo rein. Das heißt, die gute Anna habe ich sie getauft. Die darf man dann bei uns zukünftig in der Demo testen.
Joel Kaczmarek (13:18.542) Sehr gut, sehr gut. Und sag mal, was du eben beschrieben hast, so dieses typische Szenario, was glaube ich ganz viele auch im Business haben. Ich habe ein Foto, mich stört nur ein Element dran. Also ich habe es zum Beispiel gerade gehabt, ich habe mir mit deinem Tool was gebaut, wo ich auf so einer Bühne bin und dann war noch ein Mensch daneben, der so total visibel war und so das Bild wie gestört hat. Also es ist egal, womit ich es versucht habe. Photoshop den Bereich markiert, gesagt hier bitte entfernen die Person oder ChatchityPT hochgeladen. Der hat dann mich komplett verändert. Ich sah ganz anders aus. Gibt es mittlerweile oder was würdest du sagen, sind Tools, mit denen man in so eine Richtung gehen kann?
Georg Neumann (13:48.768) Also was generell gerade meine Empfehlung ist, ist FreePick als Anbieter. Ist eine Firma aus Madrid, war früher eigentlich nur bekannt so ein bisschen als Shady Stockdatenbank. Da hat man immer so bisschen angefühlt, man wusste nie so recht, hat man wirklich die Nutzungsrechte an den Bildern, die man dort bekommt. Aber die haben jetzt in den letzten Jahren massiv Gas gegeben und haben jetzt auch letztes Jahr angefangen, sehr viel im KI-Bereich aufzuholen. Und seitdem fahren die ein Momentum. Das ist der Wahnsinn. Das heißt, die bringen jede Woche neue Features rein.
Joel Kaczmarek (13:58.926) Hm?
Georg Neumann (14:16.653) Und das ist mittlerweile so eine coole Plattformlösung auch für Bild-KI-Tools, also nicht nur Bildgenerierung, Videogenerierung, sondern auch Bildbearbeitung. Und die können das. Das heißt, du gibst einfach dein Bild rein, malst den Bereich aus, den du retuschieren möchtest, klickst auf retuschieren und bist eigentlich schon fast fertig. Also dann kriegst du immer 3, 4, 5 Vorschläge wie im Photoshop auch, bloß halt auf einer deutlich besseren Qualitätsstufe als das, was Photoshop im Moment kann.
Joel Kaczmarek (14:42.146) Na gut, also ich lern hier noch neue Tools kennen und ein weiteres, was ich vorher noch nicht kannte, bevor du und ich uns vorbereitet haben für das Gespräch heute, ist Reef. Was hat's denn damit auf sich?
Georg Neumann (14:50.823) Das weiß man ehrlich gesagt gar nicht so wirklich. Also das ist ziemlich undurchsichtig, was hinter Reef steckt. Es ist ein neuer Bildgenerator auf dem Markt, den man auch kostenlos nutzen kann und ausprobieren kann. Ist sehr, sehr stark bei abstrakten Perspektiven, also bei so typischen Ansichten, die man sonst nicht so im realen Umfeld hat. Irgendwelche Froschperspektiven oder andere wahnsinnige Perspektiven, das funktioniert damit schon sehr, gut. Also die Prompt treue sozusagen ist auch sehr, gut dort. Auch von der Bildqualität ist es nice.
Ich vermute dahinter steckt irgendein Anbieter, der gerade was testen will und entsprechend das Ganze auch kostenlos zur Verfügung stellt, Nutzerverhalten auszuwerten und so weiter. Aber solange die das kostenlos anbieten, könnt ihr das natürlich gerne nutzen. Ich wäre bloß ein bisschen vorsichtig beim Upload von Bildern dort entsprechend, weil man eben nicht weiß, was dahinter steckt.
Joel Kaczmarek (15:37.816) Und ich sag mal, was macht das Ding momentan so, dass du es erwähnenswert findest in so Update? Also was ist die Besonderheit dran?
Georg Neumann (15:45.35) Einfach weiß man wieder, was komplett Neues auf dem Markt ist. Beziehungsweise weiß man nicht, ob es etwas komplett Neues ist oder auf irgendwas anderes passiert. Aber es ist trotzdem eine spannende Entwicklung, dass auch so Player aus dem Nichts auftauchen. Vielleicht ist es am Ende ja auch bloß ein Experiment von irgendwelchen Großen. Man weiß es schlicht wirklich. Das Mysteriöse macht es erwähnen.
Joel Kaczmarek (16:03.79) Ja, spannend. Und was ist so mit dem Thema Bewegtbild? du eben schon mal so gestriffen. Also Zora war ja so das letzte Update, was ich mitbekommen hab, wo es auch mal richtig sich was getan hat, wo ja auch ganz viele Menschen super begeistert waren bei Chatcha PT, also OpenAI. Was siehst du so Bereich Bewegtbild?
Georg Neumann (16:21.293) Da passiert gerade extremst viel. ist extrem volatil, dieser Bereich. Da beschlagen sich quasi wöchentlich die News-Meldungen. Zora ist gar nicht mal so gut mehr im Vergleich. war mal, wo sie letztes Jahr im März hatten sie das ja, glaube ich, angeteasert, da war es noch wirklich State of the Art. Da war es halt wirklich bloß ein Teaser und nicht nutzbar für uns Normalsterbliche. Da war es noch richtig toll. Aber als es dann released war, kam plötzlich Google die Ecke mit Google Wo2 als Videokai-Modell und hat einfach mal Zora locker in die Ecke gestellt.
Und seitdem hat sich so viel wiedergetan. Also Runway ist mit der neuen Generation 4 draußen. Kling holt auf. Luma Labs holt auf. Pika Labs holt auf. Also das ist wirklich gerade so wirklich immer wieder ein Kopf an Kopf Rennen zwischen verschiedenen Anbietern. Jede Woche was Neues. Extrem spannend. Aber was mir gerade am persönlich am meisten Spaß macht, ist eben Google Wo2. Einfach weil es sehr...
wenig Ausschuss produziert im Vergleich zu den anderen. Das heißt, die Ergebnisse sind relativ gut immer. Natürlich auch immer use case abhängig. Man muss im Videobereich halt bereit sein, mehrere iterationen pro Clip zu machen, weil es wird natürlich Müll produziert. Bei so vielen Frames ist einfach die Wahrscheinlichkeit deutlich höher als bei einer Bildgenerierung, dass einfach irgendwas komisches passiert. Damit muss man leider umgehen können dann.
Joel Kaczmarek (17:41.92) Das war so meine Update-Seite. Haben wir noch was vergessen? Siehst du noch irgendwelche wichtigen Trends? Womit rechnest du auch so die nächsten sechs Monate?
Georg Neumann (17:50.205) Da wage ich mich nicht mal eine Prognose behaupten, weil im Moment überschlägt sich wieder alles. Es kann auch mal sein, dass wir wieder eine kleine Phase der Stagnation erleben. wieder eine oder es geht gleich einfach Schlag auf Schlag weiter. Da will ich jetzt gar nichts prognostizieren. Ehrlich gesagt, da kann ich nichts richtig machen. Es wird einfach immer weiter leichter zugänglich werden. Das ganze Thema, wie man jetzt eben an Chatchapiti sieht. Ich gehe auch davon aus, dass OpenAIDA viel weiter arbeiten wird an der Bildgenerierung, weil sie jetzt gemerkt haben, wow, das bringt uns wirklich Userzahlen.
Weil die haben ja auf Twitter beziehungsweise auf X-Lauthals gemeckert, dass zu viele User quasi jetzt Bilder generieren und sie haben tagelang nicht mehr geschlafen, so nach dem Motto, sie nur die Infrastruktur am Laufen halten. Also da wird noch einiges passieren und vor allem wird spannend jetzt die nächsten Wochen, OpenAI die API öffnet, den quasi den technischen Zugang zu dieser neuen Bildgenerierung.
weil dann wird es ganz, ganz viele neue Apps und Services geben oder verbesserte Services entsprechend, auch dann auf die ChatchaBT Bildgenerierung zugreifen können von außen.
Joel Kaczmarek (18:50.842) Na guck mal, ist doch doch noch hier ein Zukunftsblick. Also vielleicht wird das spätestens mal wieder unser nächstes Update. Cool, Jörg. Dann ganz herzlichen Dank dir. Ich drück dir die Daumen mit Flake und deinem Business und wir hören uns hier bestimmt wieder.
Georg Neumann (18:52.621) Ja, ein bisschen.
Georg Neumann (19:00.686) Dankeschön!