Dieses Transkript wurde maschinell erstellt. Wenn dir ein Fehler auffällt, schreib uns gerne zu diesem unter redaktion@digitalkompakt.de.
Intro: Hallo und herzlich willkommen zu einem neuen AI-Unplugged-Podcast von Digital Kompakt. Go!
Erik Pfannmöller: Mein Name ist Erik Pfannmöller, ehemaliger Kanu-Weltmeister, dreifacher Familienvater und Gründer von SolveMate, einer führenden Plattform zur Automatisierung von Kundenservice. Im Kern unserer Plattform sind Chatbots, jedoch unterstützt unsere Software, Support-Teams ganzheitlich ihre Service-Prozesse zu verbessern. Wie immer bei AI Unplugged erklären wir Alltagsthemen rund um das Thema KI einfach und für jedermann verständlich, besprechen gesellschaftliche Umwälzungen durch KI und neueste KI-Trends. Heute geht es bei AI Unplugged um das Thema KI-Use Cases finden und priorisieren. Die typische Frage in Unternehmen ist ja öfter, kann ich mit KI eigentlich alles lösen? Sicherlich nicht. Aber wo sollte ich anfangen? Wo sollte ich meine Ressourcen optimieren? Welcher Geschäftsprozess eignet sich eigentlich am besten, um ihn mit KI und Machine Learning zu optimieren? Diese spannende Fragestellung werden wir in der nächsten halben Stunde beantworten. Und dazu habe ich einen Experten bei mir, Philipp Gerbert, Director von Applied AI, einer Initiative von Unternehmertum München. Herzlich willkommen, Philipp. Ich freue mich, dass du heute hier bist und vielleicht starten wir wie immer mit einer kurzen Vorstellung. Wer bist du? Was machst du? Und wie bist du eigentlich zu Applied AI gekommen?
Philipp Gerbert: Vielen Dank, Erik, und sehr gerne. Ich bin, ich fange mal an, ich bin tatsächlich in Lissabon geboren und in München aufgewachsen und hatte schon sehr früh Berührungspunkte zu künstlicher Intelligenz. Vielleicht kann ich es mal sagen, ich habe in meiner Jugend Schach gespielt, war auch deutscher Jugendmeister, habe dann in der Jugendweltmeisterschaft leider gegen Gary Kasparov verloren, aber habe damals mich damit beschäftigt mit Schachcomputern. Schachcomputer waren die Drosophila von KI.
Erik Pfannmöller: Du hast mal gegen Gary Kasparov gespielt, habe ich das richtig gehört?
Philipp Gerbert: Das ist korrekt, ja.
Erik Pfannmöller: Super, ist ja total spannend. Ja, erzähl weiter.
Philipp Gerbert: Genau. Und da habe ich erstmalig mich damit beschäftigt, mit Schachcomputern damals. Was kann eigentlich künstliche Intelligenz? Und Schachcomputer waren deswegen interessant, weil die ersten 40 Jahre wurden in künstlicher Intelligenz alles an Schachcomputern gemessen. Das war die Drosophila der KI. Auf die Idee, dass die tatsächlich mal besser Schach spielen könnten, als ich kann mich nie. Dann bin ich Physiker geworden, habe am MIT promoviert, damals auch ein Hotspot der KI mit Marvin Minsky noch, Society of Minds und sowas, aber alles noch sozusagen mal symbolbasiert, regelbasiert und eigentlich eine Nischenthematik, wenn man sieht, was alles weitergemacht wird. Später bin ich Unternehmensberater geworden, habe lang im Silicon Valley gelebt, die ganze erste Internetwelle mitgemacht. Später bin ich zurückgekommen hier und bei BCG Partner geworden und habe mich dann 2015 darauf fokussiert auf KI in Business. Habe damals festgestellt, hoppla, 2012 gab es die riesen Durchbrüche und bin da sozusagen mal voll eingestiegen. und dann Anfang des Jahres dort ausgestiegen, um wirklich ein bisschen Giving Back to Society, das Thema KI in Deutschland voranzubringen, weil ich gesehen habe, in welcher Art und Weise wir hinter USA und China zurückfallen und bringe mich daher hier bei Unternehmertum und Applied AI ein.
Erik Pfannmöller: Das finde ich gut, da sind wir sozusagen beide Verfechter vom Thema KI. Ich sozusagen mit dem Podcast versuche immer die Stange zu brechen für erklären, was sind eigentlich Algorithmen, wie funktioniert das, wie verändert das unsere Gesellschaft? und du mit viel, viel mehr Erfahrung, wie ich das gerade höre, nicht nur im Schach und schlache Automatisierung, sondern auch in der Realwelt. Was ist Applied AI? Was macht ihr dort? Und wir wollen ja heute unter anderem über eines eurer Whitepaper sprechen zum Thema KI-Use Cases finden und priorisieren. Ihr habt ein ganz tolles Framework gebaut, aber vielleicht sozusagen zur Einführung. Was ist Applied AI eigentlich?
Philipp Gerbert: Gerne. Also Applied AI ist zunächst mal eine Initiative von Unternehmertum. Unternehmertum ist das größte Entrepreneurship- und Innovationszentrum in Europa. Inzwischen eine gemeinnützige GmbH, gegründet von Susanne Klatten und sehr eng assoziiert noch ein Aninstitut der TU München, die wir auch sehr stark leveragen. Viele Startups durch unsere Programme geschleust und so als Kennzahl vielleicht im letzten Jahr haben die Startups, die durch unsere Programme gegangen sind, mal eine Milliarde Venture Capital eingesammelt. Und es geht tatsächlich los mit den großen Unicorns, den Flixbus und Celonis dieser Welt. Apply.ai ist eine Initiative darin, die sich an Unternehmen aller Größenordnung wendet, auch sehr stark mit DAX-Unternehmen, Mittelständlern zusammenarbeitet und ganz konkret das Ziel hat, auch im gemeinnützigen Bereich KI in Deutschland voranzubringen. Kern ist tatsächlich eine Partnerschaft mit 30 Industrieunternehmen, den größten Industrieunternehmen Deutschlands im Wesentlichen, die sich austauschen, die mit uns zusammenarbeiten, für die wir Projekte machen, Infrastrukturen, Roundtables zur Verfügung stellen und alles. Und wir werden unterstützt von allen großen Tech-Unternehmen dieser Welt, die uns tatsächlich die Infrastruktur zur Verfügung stellen, um das Thema voranzubringen.
Erik Pfannmöller: Das heißt, seid ihr eine Beratungsfirma, die unterstützt oder was ist das Geschäft, was ihr bei Apply.ai macht? Wie verdient ihr Geld?
Philipp Gerbert: Also wie gesagt, wir sind zunächst gemeinnützig, glaube ich, als Wichtigstes. Und unser Kern, wir werden gestützt von unseren Partnern. Das heißt, diese Partnerschaft hat eine jährliche Mitgliedschaft. Das ist sozusagen mal unsere Basis. Daneben bieten wir digitales Training an und Ähnliches. Das ist teilweise für Unternehmen bezahlt. Teilweise sind das öffentliche Programme. Also mit KI Campus zum Beispiel arbeiten wir zusammen. Wir bekommen Unterstützung von Europa, deutschen und bayerischen staatlichen Organisationen. Und daneben haben wir auch tatsächlich ganz konkrete Projekte, wo wir Sachen bauen, also im Ingenieurbereich und ähnliches, wo wir, sagen wir mal, kompensiert werden, aber im Wesentlichen nur, um unsere Kosten zu decken. Wir streben immer an, ein Leading Edge zu bauen und in einem Partnerkreis auch auszutauschen.
Erik Pfannmöller: Finde ich gut. Klingt total spannend und nach einer echt guten und nachhaltigen Initiative wie den Wirtschaftsstandort Deutschland. Das sozusagen hier einmal zusammengefasst. Du hast ja gerade gesagt, ihr habt auch Partnerschaften mit großen DAX-Unternehmen. Eigentlich jede Firma, die größer ist, hat ja die Frage, man fängt mit Digitalisierung an und irgendwann kommt die Frage, was kann ich eigentlich mit KI in meiner Firma optimieren? Und deswegen ist die Frage eine ganz essentielle, nämlich was wir ja schon gelernt haben in diesem Podcast, dass KI nicht die Super-KI ist, nicht die General Intelligence, das gibt es noch nicht, sondern wir suchen uns immer spezielle Fälle aus, die in einer gewissen Art und Weise narrow sind und dort in repetitiven Prozessen können Algorithmen Entscheidungen treffen, Menschen unterstützen und sozusagen auch mit Menschen zusammenarbeiten. Das heißt, es ist auch ein ganz essentielles Thema zu verstehen, wo kann ich eigentlich am besten ansitzen in einer Organisation? Um da vielleicht reinzustarten, gibt es ja auch verschiedene Begriffsdifferenzierungen. Was ist eine KI-Strategie? Was ist meine KI-Vision? Und was ist ein Use Case? Wie würdest du das unterscheiden voneinander?
Philipp Gerbert: Naja, ich würde mal sagen, KI-Vision und Strategie wird unterschiedlich verwendet. Man muss sich zunächst mal Gedanken machen, was will ich mit KI eigentlich erreichen? und wie fundamental ist das Thema? Das muss man deswegen machen, weil es tatsächlich in vielen Industrien Unternehmen gibt, die die mit KI einfach mal die gesamte Industrie auf den Kopf stellen wollen. Dieser Tage wird ja gerade mal Ant Financial an die Börse gegangen. Ein ganz typisches Beispiel von dem inzwischen größten und breitesten Finanzdienstleister der Welt, der sehr, sehr stark KI-basiert von Anfang an gegangen ist. China hat mit Ping auch im Versicherungsbereich ganz große Fähigkeiten. Aber auch wenn man so ein Netflix sieht, das ja nicht nur ein Streaming-Service ist, sondern in Produktion eingestiegen ist oder ein Nvidia, das mal ein Chip-Unternehmen war und jetzt Plattformen für autonome Autos baut. Also es gibt schon ein paar Unternehmen, die sagen, hoppla, da kann ich ganz fundamental die Industrie neu definieren. Ja, und das muss man am Anfang so ein bisschen abklopfen, einfach zu sagen, auf welcher Ebene muss ich mich eigentlich jetzt damit beschäftigen, um dann zu sagen, okay, was sind dann die konkreten Felder, wo ich Prioritäten setze in KI? Das kann einmal die Produkte sein. Ich nehme mal das typische Beispiel autonomes Fahren, was ja immer sehr beliebt ist, auch wenn es eine noch schwierige Thematik ist. Dann das Thema, alle Prozesse und Prozesse können von Entwicklung über Supply Chain, über viele kundenorientierte Prozesse, sozusagen mal sehr breit sein, aber auch alle Support-Prozesse. Oder so Sachen, die dazwischen liegen. Was dazwischen liegt, ist für mich immer so ein bisschen Service, was einerseits ein Angebot ist, andererseits ein Prozess und wo sehr, sehr viele Innovationen sind. Und da muss ich mich einfach mal festlegen, in welchen Gebieten will ich meine Prioritäten setzen, um dann konkret darum zu gehen, Use Cases zu definieren. Wir sagen, ein Use Case ist immer eine Aggregation von Handlungen, die einen spezifischen Kunden oder Geschäftswert schafft, also das einigermaßen abgeschlossen ist, um wirklich eine Wertgenerierung zu machen. Das wäre so die Grobbildifferenzierung.
Erik Pfannmöller: Verstanden. Ein Use Case, ein in sich abgeschlossener, definierter Prozess mit Kundennutzen. Das ist gut, immer konzentriert zu denken. Das habe ich verstanden. Wenn man dann sozusagen, ihr habt in diesem White Paper, wenn man Applied AI googelt, auch direkt findet und was eine sehr gute Ressource ist, die ich sehr gerne auch empfehlen würde. habt ihr einen dreischrittigen Prozess beschrieben, der von Ideation über Assessment bis hin zur Priorisierung geht, der sozusagen zusätzlich noch eine Vorbereitungsphase hat und eine Execution, also Umsetzungsphase. Ich würde mich im Folgenden gerne mal daran anhangeln und vielleicht mit der Vorbereitungsphase anfangen und dann über Phase 1, 2 und 3, Ideation, Assessment und Priorisierung sprechen. In der Vorbereitung, wenn Firmen über das Thema KI-Use Cases finden, was sollte man beachten? Und legen wir mal los.
Philipp Gerbert: Genau, vielleicht bevor ich in diese Vorbereitungsphase, damit man es auch versteht, reinspringe, kann man fragen, warum braucht man überhaupt so ein White Paper? Die Kernfrage ist ja, naja, es gibt natürlich, man kann die inhaltlich, die Use Case interessieren, aber methodisch denken ja viele Leute, wir haben Digitalisierung gemacht, wir haben Big Data gemacht. Wir wissen, wie man Use Cases priorisiert. Ja, am Ende der Sache muss ich immer schauen, was für einen Kundenwert generiere ich, wie schwierig ist es zu machen? und dann als Berater denkt man immer in 2x2, dann priorisiert man Beanschaft. Und die interessante erste Frage ist ja, also wir arbeiten ja sehr viel mit Unternehmen, die tatsächlich schon viele dieser Use Cases definiert haben und die frustriert sind. und Entweder sie sind frustriert, weil sie es nicht genau zusammengebracht haben, weil sie sich verschätzt haben. Aber das Typischere ist, die haben alle angefangen, ein Proof-of-Concept zu bauen und dann sind sie nicht darüber hinausgekommen. Und die denken immer, das kommt danach und wir sagen, hoppla, das ist ein großes Problem. Aber dieses Problem startet tatsächlich bei der Definition von Use Cases. Es gibt viele Feinheiten, die eben ganz anders sind, methodisch anders, als wenn ihr bei Digitalisierung etwas priorisiert oder wenn ihr bei Big Data etwas priorisiert. Big Data, für mich der Unterschied zwischen Big Data und AI ist, Big Data ist, ich sage immer, Excel auf Steroiden. Das heißt, man hat wahnsinnig viele Daten, Terabytes von Daten, aber die Systeme lernen nichts. Es sind immer noch klassische Computersysteme, ja. Okay, und die Firmen, das ist eigentlich das Kernthema, wenn wir auf uns zukommen und das Wesentlichste, was schwierig ist, zum einen der lernende Aspekt und zum anderen, dass man Daten und Software nicht trennen kann und dadurch die Skalierung und wie man so etwas im Unternehmen einführt, unglaublich viele Herausforderungen hat, die man schon am Anfang verstehen muss, wenn man es definieren will.
Erik Pfannmöller: Da würde ich gerne kurz nochmal einhaken, Philipp. Du hattest gesagt, es gibt Digitalisierung, was ja analoge Prozesse auf Computer bringen ist. Es gibt Big Data, das heißt große Datenmengen, aber da verändert sich nichts. Es geht nur um Excel auf Steroiden sozusagen Auswertung zu machen. Und du hast gerade einen Satz gesagt, den ich gerne nochmal wiederholen würde, nämlich Daten und der Use Case gehören zusammen in der Skalierung. Warum ist das ein großer Unterschied im Vergleich zu den anderen Themen? Das ist ja eigentlich der Kern der Sache, dass man ganz anders drüber nachdenken muss.
Philipp Gerbert: Also vor 25 Jahren, wie ich im Silicon Valley war, damals hat so Blattner tatsächlich gesagt, Philipp, ich erkläre dir mal, wie ich Software produktisiert habe. Software, ursprünglich Customization, wurde produktisiert. Das Allerwichtigste war, die Software von den Daten zu trennen. Das haben die Leute, wenn sie früher selbst gebaut haben, nie sauber gemacht. Und das große Thema Datenbanken und Enterprise Software sind völlig unterschiedliche Themen. Muss man fundamental trennen, dann kann man Software modularisieren und skalieren. Wenn man sich das mal im Munde zergehen lässt, dann überlegt man, bei KI geht es nicht. Bei KI schreiben Daten Software. Man hat einen Lernalgorithmus und lernt an Daten. Und diese Vermengung ist tatsächlich einer der Ursachen, warum das Thema Skalierung so schwer ist. Es gibt etwas, was man das KI-Paradox nennt. Es ist unvorstellbar einfach, hocherfolgreiche Proof-of-Concept und Piloten zu bauen und es ist teuflisch schwer zu skalieren. Google hat darauf vor fünf Jahren schon mal hingewiesen in einem merkwürdigen Paper, das heißt Technical Debt, also ganz technisch formuliert. Aber im Kern tatsächlich systematisch, hoppla, passt auf, KI lässt sich nicht so leicht skalieren.
Erik Pfannmöller: Super, das finde ich schon mal ganz wichtig, die Motivation für die Hörer sozusagen, warum sie weiterhören sollen. Und ich finde, es gibt so zwei Sätze, die man sich manchmal merken muss, um die Problemstellung zu verstehen. Und die Problemstellung ist dieses Entanglement, diese Verbindung von Daten und von Lernen und der Algorithmus, der ja an den Daten wiederum weiter trainiert. Wir hatten schon über Confusion Metrics in diesem Podcast gesprochen und wie neuronale Netze funktionieren und dass Testdaten, Trainingsdaten einfach zusammenhängen und dass man sie nicht trennen kann. Und dieses Mantra, wenn man das im Kern versteht, heißt auch, dass man anders rangehen muss und dass es ein anderes Verständnis ist. Aber das finde ich gut, ein gutes Intro und die Motivation würde dann direkt an dich übergeben, wenn man sozusagen das verstanden hat, wie geht man los in der Vorbereitungsphase.
Philipp Gerbert: Also typischerweise haben wir drei Sachen. A, es gibt einen Einführungsworkshop, der dazu dient, den Leuten nahezubringen, was für Fähigkeiten hat eigentlich KI heute. Wir sagen manchmal, das ist ein Leveling des Playing Fields, weil wir müssen ja cross-funktionale Teams bilden, um solche Use Cases sauber zu definieren und da muss jeder ein gewisses Grundverständnis haben. Was diese Fähigkeiten sind, da würde ich nachher vielleicht nochmal kurz dazukommen. Dann tatsächlich etwas, wo wir sagen, das ist so Vision, Strategie, wo man jetzt top-down auch mal sagt, was sind denn die großen Felder, wie vorher erwähnt, was sind denn die Suchfelder, auf die wir achten müssen. Was besonders wichtig ist, weil durch diese Skalierungsschwierigkeit sollte man sich wirklich fokussieren zunächst mal auf da, wo wirklich enormer Wert ist und davon abstimmen nehmen, einfach 200 gleichzeitig anzugehen. Und das Dritte, was wir machen, ist, wir haben zwischen den in Europa führenden Maturity Assessment rausgebracht, wo wir einfach mal relativ einfach surveybasiert bei Unternehmen sagen, wo steht er heute eigentlich? Und zwar nicht nur in den strategischen Use Case Sachen, sondern in dem, was wir auf Neudeutsch Enabling Faktoren, also die Infrastruktur nennt. Das heißt, bei Governance und Organisation bis hin zu Data Governance, bei den ganzen Faktoren, People-Themen, das heißt, was für Skills habt ihr, wie ist eure Grundkultur, habt ihr schon mal digital gemacht oder nicht? Dann bei der IT, was habt ihr eigentlich für eine Infrastruktur, die wird sich ändern müssen und was habt ihr für ein Datenmanagement? Und last not least, wie man so schön sagt, wie arbeitet ihr eigentlich mit anderen Unternehmen zusammen? Make or buy wird uns nochmal viel beschäftigen, das ist eine ganz andere Natur. im KI-Bereich und das einfach mal zu assessen, ist sehr wichtig, weil später bei den Use Cases muss man sagen, okay, wie leicht kann man sie implementieren? Wie reif seid ihr eigentlich heute? Was könnt ihr schon machen und bei welchen Sachen? sollt ihr vielleicht erstmal die Finger davon lassen oder erstmal andere Sachen vorbereiten, um das weiterzubringen? Daher ist diese Vorbereitung relativ wichtig. Danach hat man eine Idee, wo will man was machen. Jeder hat eine einigermaßen Vorstellung, was kann man eigentlich und wir wissen, wo steht das Unternehmen heute.
Erik Pfannmöller: Das finde ich schon mal gut. Das ist ein sehr strukturierter Prozess. Wie oft bei solchen Themen muss man das Ziel kennen und muss auch wissen, wie die Voraussetzungen der Organisation sind. Ich kann mir vorstellen, dass es auch in jeder Organisation unterschiedlich ist, je nachdem, ob es vielleicht schon ein Data Science Team gibt, ob man schon Erfahrung hat und Wie die AI-Readiness ist, auch ein Thema über wie AI-Ready ist eine Firma, da hatte ich letztens eine Folge drüber. Das ist eine wichtige Voraussetzung. Und wenn man die Vorbereitung gemacht hat und man in diesen Ideation-Part geht, auf Deutsch sozusagen die Ideenfindung, wie würde man vorgehen?
Philipp Gerbert: Naja, also man hat natürlich immer Kompetenzen. funktionale Teams und dann unterscheiden wir typischerweise zwei Inputsachen. Ich würde mal ganz einfach sagen Demand und Supply. Demand, das sind die Methoden eigentlich relativ klassisch, wenn ich mal so sagen darf. Das heißt, man macht typischerweise Customer Journeys, man hat die ganze Methodik des Design Thinking, die ihr sicher schon mal diskutiert habt. Wie findet man eigentlich Sachen? Oder auf der Prozessseite Value Streams, um zu sagen, was hat man für Waste in diesen Prozessen und ähnliches drin. Und das würde ich mal grob sagen, unterscheidet sich von der Herangehensweise nicht so stark von anderen Ideation-Prozessen, wenn man wirklich was Neues bringen will, um die Probleme zu identifizieren. Was ganz neu ist, ist zu sagen, naja, was muss man dann reinbringen? zum einen das Verständnis, was kann KI eigentlich, um mal anzuregen, was das ist. Und das Zweite ist, was hat man eigentlich für Daten? Beides hat interessante Aspekte. Wenn ich einfach mal sage, was kann KI eigentlich? Wir unterscheiden so acht KI-Fähigkeiten, die wir aber gruppieren. Und zwar gruppieren wir sie in Interaktionsintelligenz, in analytische Intelligenz und dann das Thema Bewegung und kreative Intelligenz. Wenn ich mal ganz klassisch nehme, wenn man bei menschlicher Intelligenz redet, dann denken wir immer an analytische Intelligenz. Planen, Vorhersagen, Mustererkennung und so weiter. Und da gibt es natürlich sehr viele methodische KI, wo man sagt, was kann der KI da eigentlich alles schon. Interessant ist aber auch die Interaktionsintelligenz, weil da denkt man beim Menschen gar nicht so dran, dass man sehen kann. Das ist ein unglaublich intelligenter Akt. Aber wenn man mal jetzt auf KI schaut, dann waren das die größten Durchbrüche. Also 2012 ist das magische Jahr, wo man plötzlich mit neuronalen Netzen, die er ja schon diskutiert hat, plötzlich Sprache und Sehen, ich sag mal, erstmalig geknackt hat, in dem Sinne, dass es nützlich wurde, nicht, dass es perfekt wurde. Und Sehen war halt wahnsinnig wichtig, weil KI sich plötzlich mit der Realwelt integriert. Und Sprache war unglaublich wichtig, weil es mit dem Menschen interagieren kann und auf menschliches Wissen zugreifen. Und in der Tat wurden in diesen beiden Bereichen unglaubliche Fortschritte gemacht. Im Sehen fing man ja an mit einzelnen Objekten erkennen, jetzt ist man bei Videos, jetzt versteht man auch erstmalig, dass Bewegung wahnsinnig wichtig ist, um Objekte viel einfacher zu erkennen, weil man ja natürlich ein sich bewegendes Projekt viel einfacher identifiziert. Und bei Sprache hat man auch in den letzten zwei Jahren unglaublich viele Fortschritte gemacht. Jetzt als letztes mit diesem GPT-3, wie das so schön heißt auf Neudeutsch, von OpenAI, eines der mächtigsten Systeme, die die Welt je gesehen hat, wo man sich tatsächlich jetzt überlegen muss, wo ist man da an der Grenze. Aber man sieht, also diese Interaktion ist wahnsinnig wichtig, um KI einfach in die Prozesse einbinden zu können. Das andere ist auch interessant. Bewegung wurde auch sozusagen mal beim Menschen nicht unbedingt als intelligent empfunden. Und das ist das klassische Moravec-Gesetz, was für den Menschen leicht ist, für den Computer schwer und umgekehrt. Und da hat man in der Robotik tatsächlich unglaublich viel.
Erik Pfannmöller: Entschuldigung, ich muss mich gerade daran erinnern, dass wir die Folge über Robotik hatten. Und es darum geht, dass ein Roboter es nicht schafft, eine Birne mit einem gefalteten Hemd in ein Paket zu legen und das sozusagen festzulegen. physische Interaktion mit der Realwelt in Kombination mit Machine Learning Algorithmen ein sehr schwieriges Feld ist, aber eins, das kommt. Und wie du das sagst, diese Interaktion über Vision und Sprache und dann auch diese physische Interaktion ist ein ganz spannendes Thema, das sehr viel Potenzial noch hat. Absolut.
Philipp Gerbert: Wir arbeiten ja sehr eng mit der Munich School of Robotics zusammen und Robotik hat sich lange gegen KI gewährt, weil es einfach nicht genügend kontrollierbar war und wird jetzt ein Riesenthema. Und das andere ist tatsächlich kreative Intelligenz, also dass man Sachen generiert, dass man Text generiert, dass man Bilder generiert und sowas, das wird zunehmend zugänglich, manchmal auch mit Deepfakes oder sowas, auch ein Thema, wo man auch die Risiken sehr gut kennen muss, aber diese ganzen Fähigkeiten einfach zu kennen und als Input zu haben. Und wir haben dann auch immer so ein tatsächlich Use Case Canvas entwickelt, zu sagen, okay, mit diesen Fähigkeiten, was sind denn typische Use Cases, die man auf Basis dieser Fähigkeiten oder eine Kombination dieser Fähigkeiten, die so auftauchen. Das ist das eine Element. Das zweite Element ist Daten. Und die Leute denken meistens, naja, Daten, okay, ich schaue jetzt mal, was für Daten ich habe. Und natürlich gibt es immer Probleme mit Daten und sowas, Integration und so weiter. Aber das Nächste ist natürlich immer, was für Daten kann ich eigentlich bekommen? Was ist mir sonst noch zugänglich? Und dann muss man aber auch methodisch alles Mögliche können. Wie kann man synthetische Daten generieren? Wie kann man Daten vergrößern? Augmentation, wie man so schön sagt. Wie kann man mit wenigen Daten lernen? Was gibt es für Transfermöglichkeiten, um irgendwie aus diesen Bottleneck-Daten rauszukommen? Und solche Sachen muss man am Anfang so ein bisschen verstehen, damit man sagen kann, okay, was für Use Cases sind realistisch? und wie komme ich dann sozusagen mal auf Ideen für Use Cases? Und dieser Supply-Side, also sowohl Fähigkeiten von KI als auch die Datenthematik gut zu verstehen, ist in der Ideation-Session völlig neu und von Leuten, die früher mal eben nur digitale oder sonstige Ideation gemacht haben, sehr wichtig, damit sie ihre Fantasie anregen für die neuen Möglichkeiten.
Erik Pfannmöller: Man muss nämlich verstehen, was KI eigentlich gerade kann und wie der Stand der Welt ist, um diesen Transfer dann auf die realen Geschäftsprozesse zu machen. Zum Beispiel muss man wissen, dass intelligente Dokumentenerkennung, nicht nur Schrifterkennung, mittlerweile ein großes Thema ist. Und ich hatte letztens Omnias bei mir im Podcast, die machen Dokumentenerkennung für die Versicherungsbranche, wo du ja ganz viele Formulare kriegst und du nie weißt, was drin ist und das aktuell viele Menschen machen. Man muss erst mal verstehen, dass sowas überhaupt möglich ist in der Kombination von Computer Vision, man aber gleichzeitig auch im Vertrieb Echtzeit-Sprachanalyse machen kann, um Vertriebsmitarbeitern zu helfen. Das heißt, dieses Verständnis des Standes der Welt, aber auch diese Gruppierung, ich fand diese Cluster gut, die du gesagt hast, mal out of the box zu denken und nicht nur in Datenanalyse für KI, sondern auch in alltäglichen Prozessen. Siehst du da in den Workshops, die ihr macht, viel Erklärungsbedarf? oder wie bringt dir das Wissen, das ist ja auch viel methodisches Wissen bei?
Philipp Gerbert: Ja, es ist. Es ist unendlich viel Erklärungsbedarf, weil es sicher auch Dauer-and-Moving-Target ist, wie man so schön sagt. Das heißt, die Unternehmen können fast gar keine KI-Experten haben, die auf allen Gebieten sozusagen mal gleichzeitig up-to-date sind. Und es ist halt immer unglaublich wichtig zu finden, was ist heute Table-Stick? Was ist möglich, aber schwierig und was ist derzeit out of reach, wird aber kommen. Also ich hatte in den ersten Jahren viele, was ich mal sage, Disaster-Recovery-Projekte, wo ein Vendor overpromised hat und sagt, okay, ich kann alles Mögliche machen. Das ist sozusagen mal das eine Thema, wo man sagt, okay, da muss man sicher sein. Das andere ist aber, dass wir tatsächlich immer mal wieder Unternehmen kriegen, die versuchen, ein Problem zu lösen, was in zwei Jahren trivial sein wird. Und da sagen wir, hoppla, passt auf, ihr müsst es zumindest schon vorausdenken, was kommt in den nächsten Jahren eigentlich absehbar in diesem Thema. Sprache ist, sagen wir mal, das klassische Thema, wo man sich vor zwei Jahren überhaupt nicht hätte vorstellen können, was man jetzt plötzlich alles kann, also so ein Summary eines Dokuments zu machen oder ein Rechtsdokument in normale Sprache zu übersetzen und so weiter. Alle Sachen, die inzwischen völlig selbstverständlich sind und wo man früher, sagen wir mal, sehr stark damit gekämpft hat. Also diese Zeitaspekt sozusagen mal zu verstehen, ist immer unglaublich wichtig.
Erik Pfannmöller: Nachdem wir über Supply und Demand Zeit gesprochen haben, geht es ja irgendwann an den Punkt, wo man sich sagt, okay, wir haben jetzt kreativ uns überlegt, das sind die zehn möglichen Kandidaten und dann müssen ja in der Phase 2 die Kandidaten, die man sich überlegt hat, bewertet werden. Sozusagen die Assessment Phase. Du hast vorhin das Thema AI Use Case Canvas beschrieben. Bei einem Canvas denke ich immer an ein großes Stück Papier, wo man strukturiert wie den Business Model Canvas Dinge aufschreibt. Wie funktioniert das und was gehört da rein?
Philipp Gerbert: Bei der Bewertung gibt es ja im Wesentlichen zwei Elemente. Das eine ist, was ist der Business wert? und zum anderen, wie schwer ist es eigentlich, ihn zu erreichen.
Erik Pfannmöller: mal so schön einfach.
Philipp Gerbert: Ich glaube, bei dem Thema, was ist der Business-Wert, ist es immer, man hat ja mit der Use Case angefangen, typischerweise, weil das ja eines der Kern der Ideation, da geht es dann tatsächlich um die Bewertung. Das Schwierige bei KI ist diese Unsicherheit. Da man ja ein lernendes System baut, weiß man manchmal nicht genau, wie gut es wird. Deswegen muss man sehr genau sein, wenn ich den Wert erreichen will, Was brauche ich für eine Skala? Also wie viel muss ich da haben? Was für eine Zeitachse habe ich, um den zu thematisieren? Sowohl wie schnell muss ich es machen, aber auch wie lange muss das sein? Was für einen dynamischen Wandel erwarte ich in der Zeit? Wir kriegen immer wieder Sachen, die sagen, das war klasse, aber jetzt hat sich die Regulierung geändert. Was habe ich für einen Pflegeaufwand? Und diesen Wert wirklich sehr sauber zu formulieren. Das ist sozusagen trotzdem die einfache Achse. Man muss halt nur wissen, worauf man achten muss. Das größere ist das Thema, okay, was brauche ich eigentlich? Wie schwierig ist es zu erreichen? Wie schwierig ist das System? Was kann das eigentlich? Da geht es am Anfang immer mal wieder los. Was für Daten habe ich? Dann fragen die Leute mich auch immer, wie viele Daten brauche ich eigentlich?
Erik Pfannmöller: Das ist immer die gute Frage. Wie viele Daten brauche ich eigentlich? Und das ist so dieser That depends answer, weil man hat es im Bauchgefühl, aber es hängt komplett davon ab, ob man jetzt vielleicht ein neuronales Netzwerk für Bilderkennung trainieren will oder selbstfahrende Autos. Da braucht man Millionen, wenn nicht sogar Milliarden von gefahrenen Kilometern. Und es gibt auch AI-Use-Cases, da braucht man ganz wenig Daten und sie funktionieren. Die Frage habe ich auch schon öfter gehört und it depends ist die Antwort.
Philipp Gerbert: Ja, aber man kann schon ein paar Sachen sagen. Also das Erste ist als Rule of Thumb, nehmen wir mal einen Prozess. Je mehr ich über den Prozess weiß, desto weniger Daten brauche ich. Die Umkehrung gilt auch, je mehr Daten ich habe, desto weniger brauche ich über den Prozess zu wissen. Also wir hatten schon Themen, wo man sagt, okay, ich will gerne, dass ich eine Kupferschmiede optimiere und Teams reingeschickt, die noch nie was von Kupferschmiede, die überhaupt nicht wissen, was eine Kupferschmiede ist. Sie hat eine perfekte Datenlage, überhaupt kein Problem. Also man braucht überhaupt nicht zu verstehen, was man macht, um zu optimieren. Meistens ist man eben dazwischen und dann muss man halt sagen, naja, wie viel Daten man hat am Anfang, das ist einfach eine Vorgabe. Und dann sagt man, man kann typischerweise schon mit 1000, 1500 Datenpunkten die ersten Systeme anfangen zu bauen. Man muss halt relativ viel reinstecken über die Struktur des Prozesses und sowas. Und da gibt es jetzt dann auch wirklich Erfahrungswerte, auch gerade bei Standardprozessen, Dokumenten oder Entscheidungen und sowas. Wie viel braucht man ungefähr, um da zu starten? Und wie kann man, wenn man mehr hat, was kann man dann mehr machen? Dann ist aber die Kernfrage sozusagen, wie gut ist das Unternehmen vorbereitet? Ich habe vorhin mal kurz gesagt, dass die Skalierung schwierig ist. Und da nehmen wir immer dann das Maturity Assessment zu machen, weil Sag mal, wie kann ich eigentlich sowas, wenn ich es baue, wie schnell bin ich da und an welche Probleme komme ich da mit meiner IT-Infrastruktur, mit meinen Skills und so weiter und so fort. Und das ist sehr wichtig, um einfach realistisch einzuschätzen, wie lang kann das brauchen, um sowas zu machen. Da kommt dann meistens gleich ein zweites Thema, dass sie sagen, naja, wenn ich diese Zeitachse abschätze, dann gibt es ja auch die Möglichkeit, eine Make-or-Buy-Entscheidung zu treffen. Ich muss die Sachen ja nicht selbst bauen.
Erik Pfannmöller: Dann mach mal doch, bist du schon bereit für den nächsten Kurs? Ich habe das auf meiner Agenda, dass wir über Make-or-Buy sprechen. oder sollen wir erstmal durchgehen und dann über Make-or-Buy zum Schluss sprechen?
Philipp Gerbert: Genau, wir können über Makeover nachher sprechen. Ich will nur sagen, das ist sozusagen etwas ganz Spezifisches und das kommt halt typischerweise hier bei der Zeitachse erstmalig aus. Und dann kann man aber sozusagen mal ganz klar sagen, okay, wie hart ist es zu implementieren? Das ist, glaube ich, dann relativ einfach. Und dann Kommt zu die Schwierigkeit zu sagen, naja, es gibt
Erik Pfannmöller: noch ein paar,
Philipp Gerbert: was wir Flags nennen, ja, die man auch nochmal beachten muss, das sind so Sachen, die einen später nennen, was für Risikofaktoren hat man, ja, Cyberattacken zum Beispiel, ja, Cyberattacken sind immer ein Risikofaktor, aber es sind ganz andere. anderes Risikofaktor, wenn man plötzlich den gesamten Prozess automatisiert hat. Ich nehme immer das, die Leute denken immer so an Papierprozesse, aber lassen wir mal ein selbstfahrendes Auto rumfahren und jemand übernimmt es einfach mal. Gab es mehrere Demonstrationen dieses Ding, das ist ein ziemlich unangenehmes Gefühl.
Erik Pfannmöller: Oder in der Schadenbearbeitung, in der Versicherung, die komplett automatisiert ist, die Dunkelverarbeitung und auf einmal verändert jemand den Prozess oder einen Parameter und dann wird auf einmal anders entschieden.
Philipp Gerbert: Genau und vor allem, man muss ja auch sicher sein, dass man das merkt. Ja, also man kann tatsächlich Sachen so subtil verändern, dass man es nicht merkt. So, es gibt natürlich einfach unerwartete Ereignisse. Ich sage mal, Finanzkrise war ein typisches unerwartetes Ereignis. Wir können jetzt noch sehen, wie gut haben die ganzen Finanzalgorithmen da eigentlich performt. Ich meine, sowas haben wir noch, das Covid haben wir noch nie gesehen. Es hat noch niemand gesehen, kommt aus einer ganz anderen Ecke. Einfach mal sagen, wie gut ist man da unterwegs. gegen eigentlich gefasst, bis hin zu, was man Adversarial Attacks nennt, wo jemand ganz bewusst versucht, im KI-System die falsche Vorhersage zu machen. Da gibt es ganz berühmte Beispiele. Gerade neuronale Netzwerke sind in der naivsten Form sehr instabil gegen solche Attacken, muss man halt wissen. Und dann kommt das ganze Thema Bias, Ethik und so weiter. Insbesondere wenn man bei HR-Themen KI einsetzt, muss man unglaublich vorsichtig sein. Das Gute an KI, es ist alles messbar. Es wird auch alles gemessen. Man kann auch alles beeinflussen. Man baut die Dinger ja schließlich. Das heißt, man kann die Sachen managen, aber da muss man von Anfang an wissen, das geht hier bereits ein und nicht nur bei der Execution, weil solche Dinge können tatsächlich passieren. die Zeitachse der Implementierung oder den Wert, weil Risiko und Wert sozusagen zusammen deutlich beeinflussen, sodass man es hier schon bei dem ersten Assessment schon mal zumindest als Flag machen muss, zu sagen, wenn ich sowas wähle, dann muss ich das nochmal sehr vorsichtig evaluieren.
Erik Pfannmöller: Also Assessment zusammengefasst, AI Use Case Canvas, welchen Wert bringt es mir eigentlich für die Organisation? Wie einfach ist es sowohl zeitlich als auch von den Ressourcen technisch zu implementieren? Und wenn ich dann sozusagen das in eine bestimmte Struktur gebracht habe und die Übersicht habe und ich sehe das vor mir gerade, ihr habt da so ein schönes Querformat mit Beschreibung, Wert, Ease of Implementation und dann gibt es sowohl einen Zeitscore als auch einen Overall Score. Das heißt, man versucht zu quantifizieren mit einer Metrik, ohne jetzt im Detail darauf einzugehen, welcher Use Case wahrscheinlich die meisten Punkte kriegt auf irgendeiner Ordinalskala. Und dann ist ja die nächste Frage, wie priorisiere ich das? Und das ist sozusagen, führt dann zu einer Entscheidung, nämlich, was möchte ich eigentlich tun? Oder was möchte ich als Organisation umsetzen? Und dann kommen wir zu der letzten Frage, soll ich es selbst machen? Oder soll ich vielleicht jemanden beauftragen? Oder wie schaue ich dann rein? Das heißt Priorisierung. Jetzt kommt die typische 2x2 Matrix vom Berater.
Philipp Gerbert: Genau. Ja, es ist ja gut. Priorisierung. Ich weiß, wie viel Wert es bringt und wie viel Zeit. Und wenn ich es an 2x2 mache, dann will ich immer rechts oben. Das heißt
Erik Pfannmöller: Immer rechts oben, ja.
Philipp Gerbert: Möglichst viel wert und möglichst einfach zu implementieren. Was ist überhaupt die Problematik? Die Problematik, wie immer, wenn man solche Sachen verteilt, ist zu sagen, wir haben Use Cases sauber differenziert auf der Demandseite. Wir haben gesagt, das sind Sachen, die einen Kunden oder Business Nutzen schaffen. Jetzt können die Use Cases aber auf der Supply-Seite zusammenhängen, weil sie zum Beispiel ähnliche Technologien nutzen. Und dadurch sind es jetzt keine Einzelentscheidungen, sondern es sind Cluster-Entscheidungen. Ja, ich kann. also typischerweise, habe ich zum Beispiel ein Thema, naja, ich habe im Service was sehr Interessantes, was mir mein Remote-Mitarbeiter unterstützt. was zum Beispiel visuelle Informationen verarbeitet und ich kann etwas ganz Ähnliches bei der Fehlererkennung nehmen und was ganz Ähnliches bei Dokumententhematik. und deswegen sagen wir, okay, ihr solltet auch mal ein bisschen clustern nach den Sachen, was gehört eigentlich technologisch zusammen, auch wenn es vom Use Case was ganz anderes ist, weil es natürlich bei der ESOP Implementation, bei der Plattform ein Riesenthema macht. Das zweite, was man typischerweise hat, ist, naja, die schönsten Sachen sind schwer. Und dann muss man anfangen, das aufzuteilen in eine Roadmap, wo man sagt, wir wollen so ganz klassisch, so Minimal Viable Product immer weitergehen, immer einen Kundennutzen haben, aber diesen Use Case statt zusammenzufassen, Clustern nach Technologien diesmal auseinanderzunehmen und sagen, okay, wie kann ich denn nacheinander vorgehen, um das zugänglich zu machen. Und das, was man vorher so schön als einen Use Case gesehen hat, plötzlich zu sagen, hoppla, man muss ihn vielleicht auseinandernehmen, man muss auch nochmal über die Clusterung nachdenken, das sind eigentlich die Probleme bei der Priorisierung. Dass diese Sachen eben nicht einfach unabhängig so gegeben sind, sondern man hat es so gut wie möglich gemacht, aber dann muss man es nochmal anschauen und das nochmal alles revidieren.
Erik Pfannmöller: Habe ich verstanden. Das, was ich gerade nochmal für mich als Kernsatz herausgefunden habe, war, man kann Use Cases nicht einzeln betrachten, weil von der Supply-Seite her es Cluster gibt. Und mit verschiedenen Clustern habe ich vielleicht auch gleichzeitig noch fünf andere Fälle gelöst. Und da ist dieses Transfer, dieses Expertenwiss auch nochmal wichtig, um auch dann die richtige Priorisierungsentscheidung zu treffen. Was zu der Frage kommt, wenn ich mich entschieden habe, ich will etwas tun, wann sollte ich ein eigenes Team aufbauen, was ja irgendwie so das naheliegendste ist, so nach dem Motto KI ist schwierig, schwierig muss ich es selbst machen, aber muss ich es immer selbst machen? Kann ich vielleicht nicht auch KI-Services outsourcen oder Spezialfirmen dafür benutzen? oder soll ich vielleicht sogar eine Firma akquirieren, die sozusagen diese Wissen schon hat, was Time-to-Market ist? Wie seht ihr das bei Applied AI?
Philipp Gerbert: Naja, ich glaube, die Akquise und sowas ist nochmal anders. Ich sage mal ganz grundsätzlich, muss ich es eigentlich selbst machen oder nicht? Und kann ich es selbst machen oder nicht? Das Erste ist natürlich, wie strategisch ist es für mich? Ich meine, eine Versicherungsgesellschaft kann nicht Risikobeurteilungen outsourcen. Das ist absurd. Da hat sie keine Existenzberechtigung mehr. Und da kann man sagen, okay, was ist Kern meiner Business? Was muss ich unbedingt selbst können? Und die andere Aspekte sind dann gut. Wie gut bin ich eigentlich in sowas? Habe ich die Fähigkeiten? Habe ich die Daten? Das sind typischerweise die ganz großen Themen. Wenn es tatsächlich sehr wichtig ist und ich die Fähigkeiten und Daten nicht habe, dann kommt man in der Tat sehr schnell zu dem Thema, hoppla, ich muss unbedingt jemanden akquirieren.
Erik Pfannmöller: Du sagst das so schön einfach, ja.
Philipp Gerbert: Das gibt es, das hat halt ein echtes Problem. Die Autoindustrie hat sich sozusagen mal darin gefunden, wie die Autonomes fahren. Jetzt haben wir alle ein Problem und da geht es schnellstens los, wie schnell kann ich es aufbauen, beziehungsweise was kann ich kaufen. So, die andere Achse ist tatsächlich dieser unfair advantage, sozusagen mal, kann ich es eigentlich bauen, habe ich die Skills? Und wenn es unwichtig ist und ich habe die Skills nicht, ist es relativ einfach, dann versuche ich einfach zu kaufen, ja, ich sage mal, ich nehme mal Chatbots, so ein typisches Thema, wo ich sage, okay, das brauche ich, das hat einen gewissen Wert für mich, ist aber nicht meine Core-Business, brauche ich ein Ding, kann ich, wenn ich mich anwende, da gibt es Leute, die können das viel besser, die haben das in tausenden von ähnlichen Sachen gemacht und trotzdem muss man noch einiges wissen und so weiter. Das ist ja jetzt noch nicht so ungewöhnlich. Das Gemeine bei KI ist, kaufen geht so nicht. Und ich sage kaufen geht so nicht, weil KI ist nicht Plug and Play. Meistens muss das noch an eigenen Daten mittrainiert werden. Das heißt, man kann es nicht einfach fertig kaufen. Ein Lernalgorithmus ist trivial, den kann man sich auch überall runterladen, aber der muss ja trainiert werden. Jetzt gibt es vortrainierte Sachen, das ist alles gut, aber in vielen Applikationen muss man eben noch weitermachen. Und jetzt kommt das Folgende. Man muss zum Ersten, wenn man etwas Neues macht, dann weiß man am Anfang nicht genau, wie gut er performt. Wie macht man überhaupt den Kontrakt mit einem Vendor? Was ist denn genau das Deliverable, wenn man nicht genau vorhersagen muss, wie gut er performt? Zweitens, der verwendet eigene Daten, um was zu machen. Wem gehört das IP? An was darf er ran? Darf er nicht ran? Und drittens, die Sachen ändern sich über Zeit, müssen vielleicht weiter lernen. Wie denkt man überhaupt über Maintenance in diesen Sachen nach? Und deswegen ist dieses ganze Thema, was wir Make-up beiwählen, aber eigentlich ist es ein Kontinuum von Partnerschaften. Wie arbeitet man mit anderen Unternehmen zusammen? Wie arbeitet man mit großen IT-Bändern zusammen? Wie arbeitet man mit Start-ups zusammen und sowas? Eines der größten Themen überhaupt. Wir machen ja die KI-Start-up-Landscape und sowas und sind da sehr aktiv, immer zu sagen, wie könnt ihr eigentlich zusammenarbeiten? Auf was müsst ihr achten? Ein für viele Unternehmen ganz neues Feld und deswegen am Anfang bei solchen Use Case Priorisierungen sehr unangenehm, weil man nicht sagen kann, okay, wie schnell geht das und wie einfach kann ich kaufen. Das ist tatsächlich ein Evaluierungsprozess, den Unternehmen erst lernen müssen. Beim Maturity Assessment machen wir das immer, könnt ihr das schon? Wenn das alle schon können, dann ist das alles sehr schnell. Sehr häufig kommen wir in die Situation, dass Unternehmen damit relativ wenig Erfahrung haben.
Erik Pfannmöller: Es ist also alles nicht so einfach, wenn wir das mal zusammenfassen. KI hat zwar unglaublich viel Potenzial, ich sage immer selbst auch manchmal einfach Machine Learning, weil das spielt das ein bisschen runter, nämlich wir nehmen Daten, wir nehmen Algorithmus und wir machen irgendwelche Vorhersagen vom Wetterbericht, der mir sagt, wie das Fenster ist, bis hin zu Siri, die mir die Vorhersage gibt, wenn ich sie frage, den Unterschied zwischen einem Zebra und einem Maultier und Siri mir einfach ein Suchergebnis gibt dazu. KI hat ein Riesenpotenzial. Es ist aber gerade für Firmen, und das habe ich jetzt in den letzten dreiviertel Stunden unseres Gesprächs rausgehört, ist es gar kein einfacher Prozess. Nicht umsonst habt ihr ein sehr, sehr wohl illustriertes und hochstrukturiertes 28-seitiges White Paper dazu geschrieben, um überhaupt das Thema KI-Use Cases zu finden und zu priorisieren in einer Firma. Weil es ist noch schwieriger als Software Development, wo man sagt, man entwickelt ein Feature und muss vorher ganz genau wissen, worin es geht. Man muss noch mehr sozusagen diese algorithmische Datenlage mit der Software verweben. Having that said, das letzte Wort in diesem Podcast gehört dir, Philipp. Was möchtest du unseren Hörern noch mitgeben?
Philipp Gerbert: Ich glaube, das Wichtigste ist zu sagen, man kann das Potenzial von KI schwer unterschätzen. Es ist ein Moving Tages und es entwickelt sich stetig weiter. Und man muss sehen, dass nur weil da ein Riesenhype kreiert wird, heißt nicht, dass Underline nicht wirklich unglaublich viel sich bewegt. Die Leute müssen sich damit beschäftigen und man muss, das ist das Schwierigste immer, ein paar Sachen unlearnen, was man in anderen Gebieten gelernt hat methodisch und darauf hinzuweisen und sich damit zu beschäftigen, was hier ist eigentlich anders, was mache ich für Fehler, wenn ich einfach die traditionellen Methoden anwende, ist eines der größten Themen. und dann gibt es wirklich ein Universum von Sachen, die man hier neu entdecken kann und enormen Businesswert kreieren kann.
Erik Pfannmöller: Das war Philipp Gerbert, Director von Applied AI, einer Initiative von Unternehmertum. Vielen Dank für das spannende Gespräch.
Philipp Gerbert: Eric, was a pleasure.