Dieses Transkript wurde maschinell erstellt. Wenn dir ein Fehler auffällt, schreib uns gerne zu diesem unter redaktion@digitalkompakt.de.
Joel Kaczmarek: Hallo und herzlich willkommen zu einem neuen AI-Unplugged-Podcast von Digital Kompakt. Mein Name ist Joel Kaczmarek und jetzt hört der ein oder andere vielleicht hin und denkt so, huch, was ist denn das für ein komischer Format, aber den kenne ich ja noch gar nicht richtig, denn das ist neu. Der gute Herr, der neben mir sitzt, der dürfte sehr, sehr aufmerksam digital kompakt hören, aber nicht neu sein, weil du warst, glaube ich, schon mindestens in zwei Folgen. Einmal in unserem KI-Format, das wir bisher hatten mit dem Fabian Westerheide. Der sei an dieser Stelle mal, by the way, wärmstens gegrüßt. Manchmal werden wir auch Opfer des Erfolgs unserer Co-Moderatoren. Der macht ja diese schöne Konferenz Rise of AI-Konferenz. Und parallel mit Asgard einen Kryptofonds, ich weiß gar nicht, ob man das so sagen kann, haben wir auch mal zu interviewt. Also im Prinzip Blockchain angewendet auf VC-Investments. Und das fordert so viel Aufmerksamkeit von ihm, dass wir das Hardware- und KI-Format teilweise einfach nicht mehr hinkriegen. Weshalb jetzt der gute Erik hier sitzt. Und Erik war halt auch schon in dem Podcast-Format mit dem Fabian dabei. Ich glaube, ihr kennt euch und mögt euch auch. Ja. Schickst ihm auch noch einen Gruß raus. Ja.
Erik Pfannmöller: Ja, mache ich. Erstmal danke, dass ich heute hier sein kann, Joel. Auch viele Grüße an Fabian. Gerne nehme ich die Verantwortung für den Podcast. der Ehrenplagt auf mich.
Joel Kaczmarek: Der Staffelstab wird weitergereicht.
Erik Pfannmöller: Genau.
Joel Kaczmarek: Und das zweite Mal, wo wir dich gehört haben, war, als du mal über Chatbots geredet hast, nämlich in unserem Deep Dive Wissen. Also da merkt man schon mal, dein Spektrum ist sehr, sehr weit. Und bevor wir jetzt eintauchen, was genau unser Format leisten soll, was es hier zu hören gibt, würde ich gerne mal anfangen, dass wir dich vorstellen. Und ich kann vielleicht schon mal den geneigten Hörer, weil am Anfang muss man die ja catchen, die Leute. Was ihr eigentlich heute mitnehmen werdet, wenn ihr uns zuhört, ist, dass ihr, glaube ich, die wichtigsten Themen im Bereich Künstliche Intelligenz grob versteht. Also, dass ihr stammtischtauglich seid, ja, über solche Sachen wie neuronale Netze, maschinelles Lernen, Reinforcement Learning. Also, alle solche Geschichten werdet ihr heute, glaube ich, ganz gut verstehen. Und wir werden einfach mal uns betrachten, was eigentlich KI im Kern ist, nämlich im Prinzip Datenverarbeitung mit Algorithmen. So, das mal als kleinen Appetizer, worum es heute gehen soll. Aber jetzt zu dir. SolveMate hast du schon erwähnt. Fangen wir mal an mit deiner aktuellen Gründung und dann hangeln wir uns mal durch, was du sonst bisher noch so gemacht hast.
Erik Pfannmöller: Erstmal danke, dass ich hier sein kann. Mein Name ist Erik Pfannmüller. Aktuell bin ich CEO und Gründer von SolveMate. SolveMate ist eine Plattform zur Kundensupport-Automation. Das heißt, wir haben eine KI-basierte Plattform, mit der man virtuelle Assistenten, manche sagen auch Chatbots, trainieren kann, womit Endkonsumenten ihre Anfragen in Sekundenschnelle selbst lösen können, ohne eben am Kundensupport anzurufen und das automatisch. 24 Stunden am Tag und mit einer über 80% Erfolgswahrscheinlichkeit in wenigen Sekunden. Das macht SolveMate und wir sind eine B2B-Software-Firma sozusagen.
Joel Kaczmarek: Sehr gut. Also wir werden, glaube ich, ganz viele Themen in diesem Format streifen. Man darf dazu sagen, du wirst es auch komplett eigenverantwortlich machen. Also ich werde wahrscheinlich nur ausnahmsweise mal in Folgen dabei sein, wenn mich mal Themen richtig catchen, weil du bist ja auch viel unterwegs, du siehst ja auch ganz viel, bist auf Konferenzen, triffst dich mit anderen KI-Unternehmern Und Chatbots, ja, spannendes Thema. Also vielleicht sagen wir da ein, zwei Sätze nochmal dazu, weil wir wollen natürlich nicht nur Chatbots machen im Sinne von KI, aber es ist trotzdem ein Thema, was uns sicherlich auch intensiv beschäftigen wird, da du da große Expertise drin hast. Wie bist du denn dazu gekommen?
Erik Pfannmöller: Ich fange mal ganz vorne an. Ich sage mal, in meinem ersten Leben war ich mal Leistungssportler im Kanu. Wenn der Hörer das kennt, das ist eine olympische Sportart mit grünen und roten Torstangen, wo man im wilden Wasser fährt, der Schnellste gewinnt. Und habe dann aber aktiv meine Karriere beendet und bin auf eine Business-School gegangen, habe da abgeschlossen, habe meine erste Firma gegründet, eine E-Commerce-Firma. Wir haben von Sportschuhen bis Outdoor-Jacken alles verkauft, sind sehr schnell gewachsen, sehr viel Venture Capital geracet und hatten nach vier Jahren Erfolg. 70 Mitarbeiter und knapp 20 Millionen Euro Umsatz. Habe dann Mitte 2014 die Firma einmal Management übergeben und da war für mich die Frage, what's next? Und ich habe gesagt, Erik, du bist Unternehmer. Ich bin ein sehr technisch tickender Mensch und ich habe meinen ersten Computer mit zwölf Jahren zusammengebaut. Damals auch so einen großen Tower mit einer drehenden Festplatte, nicht diese coolen, wie es heute gibt. Und ich bin sehr, sehr gut in Mathe und habe immer die besten Noten geschrieben in der Uni. und habe mir dann gedacht, das Thema Mathe, das Thema Programmieren und Computer und Business, das ist doch eigentlich Machine Learning. Und habe dann zu meiner Frau gesagt, ich gehe auf Arbeit, aber eigentlich habe ich mir ein kleines Souterrain-Büro gemietet in Prenzlauer Berg und habe ein knappes Jahr lang mich komplett mit Machine Learning auseinandergesetzt. Das heißt, ich wollte die Algorithmen verstehen, ich wollte verstehen, was ist das überhaupt, wie funktioniert das, welche Daten brauche ich für welchen Algorithmus? und ich habe mir von Selbstfahrenden Autos bis hin zu Natural Language oder auch Chatbots oder Wettervorhersagen. Ich wollte verstehen, wie funktioniert dieses Machine Learning eigentlich, um mit diesem Wissen dann knapp ein Jahr später SolveMate zu gründen. Und ja, so heute steht SolveMate sehr gut da. Wir haben zufriedene Kunden und über hunderttausende Endkonsumenten, die mithilfe unserer Software ihre Kundensupport-Anfragen automatisch beantworten.
Joel Kaczmarek: Okay, darf man trotzdem sagen, dass ihr noch am Anfang eurer Reise steht? oder wie würdest du euch einordnen?
Erik Pfannmöller: Wir stehen am Anfang. Wir sind gerade 30 Leute, Standort Berlin, sind gerade in ein schönes neues Büro gezogen, haben eine große Finanzierungsrunde gemacht, weil unsere Kunden sehr zufrieden mit dem Produkt sind und wir natürlich auch wachsen wollen.
Joel Kaczmarek: Wie würdest du so deinen Background einordnen? Also du bist ganz klar wirtschaftlich gebildet worden in der Uni, also du hast ja gesagt Business School. Bist du trotzdem auch jemand mit tiefem technologischen Verständnis durch deine Recherche, durch die Behandlung jetzt des Themas oder wo verortest du dich da?
Erik Pfannmöller: Ich sage immer, mein Lebenslauf ist ein ganz klarer Business-Lebenslauf. Aber wenn man hinter die Kulissen schaut, dann bin ich unglaublich technisch affin. Das heißt, ich wäre gern Programmierer, wenn ich nicht normaler Businessman wäre. Ich habe damals unser Data Warehouse designt und ich kann so SQL-Abfragen schreiben, aber ich bin jetzt kein Full-Stack-Developer. Aber Programmieren ist eine Art Denkweise, dass man objektorientiert, logisch, strukturiert in Prozessen denkt. Und das hat auch mit ganz viel Mathematik zu tun. Und da passe ich schon sehr gut rein. Das heißt, ich habe immer die Fragen gestellt bei meinen Kollegen. Warum macht ihr das so? Warum muss die API mit dieser Schnittstelle so kommunizieren? Das heißt, ich kann da schon recht technisch drüber sprechen.
Joel Kaczmarek: Okay, das ist ja so mein Beweggrund gewesen, dass ich dich kennengelernt habe als jemand, wir haben uns ja jetzt schon öfters mal gesehen, der sehr strukturiert denkt und der trotzdem komplexe Zusammenhänge halt einfach übersetzen kann. Und ich glaube, da bist du eine spannende Schnittstelle für unsere Hörer, dass was Technisches genommen wird, in den Business-Kontext gerückt und trotzdem technisch verstanden, sodass man diese beiden Seiten so miteinander verheiratet ein Stück weit.
Erik Pfannmöller: Das ist auch eine gute Überleitung zu unserem Thema AI Unplugged. Bei AI Unplugged geht es nämlich genau darum, schwierige Themen rund um das Thema KI oder AI, Artificial Intelligence, einfach zu erklären. Und heute sozusagen geht es um die Intro-Episode, wo wir über KI und AI im Generellen sprechen. Und ich kann schon vorher sagen, dass es eine Folge geben wird, KI im Auto, mit einem großen Autohersteller als Gast. Da freue ich mich schon drauf. Und es wird Themen für KI im E-Commerce geben. Es wird Themen geben, wo man einfach alltägliche Dinge von Image Recognition auf meinem Smartphone oder wie kriegt das Apple eigentlich hin, dass es mir meine Autokorrektur macht auf meinem Telefon, bis hin zu anderen Themen wie Personalisierung im Internet. Wir werden schwierige Dinge einfach erklären und zwar in jeder Folge, themenbasiert, einen Schwerpunkt.
Joel Kaczmarek: Sehr gut, sehr gut. Was war so deine Motivation, das machen zu wollen? Also jetzt mal abgesehen davon, dass man als Unternehmer da vielleicht ganz gut dasteht, dass es einem mit der Firma hilft, so als Thought Leader wahrgenommen zu werden. Was reizt dich daran, das Leuten einfach zu erklären?
Erik Pfannmöller: Ich glaube, ganz viel in der Welt ist ja Bildung und Wissen weitergeben. Und um ehrlich zu sein, einen Podcast zu machen, den hoffentlich Tausende, Zehntausende, vielleicht auch mal Millionen Leute hören, das ist auch, macht Spaß. Und die Podcasts, die ich mit dir aufgenommen habe, die waren immer Spaß und mich reizt es auch, das selbst mal zu machen, was Neues dazu zu lernen und auch das Wissen, das ich habe, weiterzugeben. Aber auch die Experten, die Gäste, die zu uns kommen, deren Wissen rauszusaugen und an die Welt rauszugeben.
Joel Kaczmarek: Sehr gut, dann lass uns voll einsteigen. Was ist KI? Mal ganz simpel begonnen.
Erik Pfannmöller: KI ist eigentlich nur künstliche Intelligenz. Und es gibt keine richtige Definition von künstlicher Intelligenz. Und der Begriff KI wird sehr inflationär benutzt. Das heißt, manchmal sage ich so salopp, KI ist alles das, was die Menschen aktuell nicht verstehen, was irgendwas mit Software zu tun hat. Eine bessere Definition meiner Meinung nach ist, was ist eigentlich maschinelles Lernen? Und maschinelles Lernen ist ein Oberbegriff für die künstliche Generierung von Wissen aus Erfahrung. Ein künstliches System lernt aus Beispielen, aus Daten und kann diese nach der Beendigung der Lernphase verallgemeinern. Das heißt, es kann zum Beispiel Dinge nicht auswendig lernen, sondern es kann Muster erkennen und dann Dinge vorhersagen. Faktisch geht es darum, um Machine Learning. Und ganz kleines Beispiel, wenn jeder kennt im Excel, wenn er so einen Chart hat mit so Punkten und da gibt es die Funktion Trendlinie hinzufügen, also so eine Art Linie, die das approximiert, wie es weitergehen würde. Eine lineare Regression nennt man das als Fachbegriff. Und das ist per Definition maschinelles Lernen, denn die Maschine, dreht die Gerade in die Punkte so rein, dass sie die am besten schneidet. Oder die Formel wäre, man minimiert die Summe der Quadrate des Abstands. Aber die Formeln sind egal. Die Maschine lernt etwas, nämlich den Anstieg einer Gerade. Und man kann die Art Vorhersage machen, wo Punkte liegen würden, wenn die Datenpunkte existieren würden. Wenn
Joel Kaczmarek: ich es mal als Laie auch nochmal für mich übersetze, meinst du eigentlich, dass KI im Sinne von Maschine im Lernen bedeutet, dass eine Maschine Inhalte entwickelt, die sie nicht per Algorithmus vorgegeben hat oder vorgegeben bekommen hat, sondern dass sie quasi Reize, Inputs nimmt und daraus sozusagen Ableitungen selbstständig erzeugt.
Erik Pfannmöller: Genau.
Joel Kaczmarek: Klingt ganz schön verkopft.
Erik Pfannmöller: Ja, aber ich mache mal drei Beispiele, dann wird es irgendwie klar. Und wir gehen nachher noch im Detail tiefer rein. Selbstfahrende Auto ist ein Thema, das über alle sprechen. Faktisch trainiert man mit ganz viel Daten, Video, Laser, Radar ein System. Und die Vorhersage beim selbstfahrenden Auto ist Gas, Bremse, rechts oder links. Ein weiteres Beispiel ist Bildvorhersage. Wenn Apple auf dem Telefon erkennt, wer auf einem Bild drauf ist, dann hat es vorher ernannt, dass da eine Katze oder ein Hund drauf ist. Dann hat es vorher ernannt von vielen Daten gelernt, wie eine Katze und ein Hund aussieht. Und die Vorhersage ist, auf diesem Bild ist ein Hund, auf diesem Bild ist eine Katze. Und genauso ist die Vorhersage, wenn man die Autokorrektur hat beim Tippen auf dem Smartphone, dann sagt Apple vorher, ob es richtig oder falsch ist. Das ist genau ein Algorithmus, der was gelernt hat und eine Vorhersage macht. Ein weiteres Beispiel sind die Google-Suchergebnisse. Das heißt, Google lernt an dem Begriff, den man eingibt, wo man hinklickt und anhand von den Daten verbessert es die Vorhersage, die es eigentlich macht. Und darum geht es, um anhand von Daten eine gute Vorhersage für etwas zu tun.
Joel Kaczmarek: Also Vorhersagen würden ja viele Leute jetzt wahrscheinlich gar nicht als künstliche Intelligenz einordnen, sondern da denkt man ja ganz schnell an so, ich erinnere mich nochmal an diesen Film mit Haley Joel Osment damals, der hieß glaube ich sogar AI, wenn ich mich nicht täusche. Also da hast du ja auch noch die Roboter-Komponente gehabt. Da denken ja eher Leute so an Hell aus 2001, also eine Maschine, die denken und reden kann. Das ist ja, was man bei KI eigentlich sich vorstellt und nicht jemand, der Inputs abgleicht und dann sozusagen Vorhersagen macht, wie die Inputs in Zukunft aussehen werden.
Erik Pfannmöller: Den Zahlen möchte ich unseren Hörern heute ziehen, dass KI oder AI eigentlich nur die Vorhersage von Dingen ist, wo die Maschine Gesetzmäßigkeiten erkannt hat. Ich würde gerne ein Beispiel machen beim Wetterbericht. Jeder kennt den Wetterbericht und man nimmt also historische Wetterdaten über die letzten 100 Jahre von hunderten Wetterstationen, tut die in einen großen Datentopf. Und dann lässt man einen Algorithmus über diesen Datentopf laufen, der erkennt Gesetzmäßigkeiten. Zum Beispiel, wenn es gestern warm war, ist es morgen vielleicht auch wieder warm. Und im Sommer ist es eher warm als im Winter. Das sind Gesetzmäßigkeiten des Wetters, die eine Maschine anhand der Daten über Saisonalitäten, über verschiedenste Algorithmen lernen kann. Also großer Datentopf, darüber stecken wir einen Algorithmus. Der ist erstmal eine Blackbox. Wir sprechen später noch über Algorithmen. Und daraus kommt ein Wettermodell. Und das Wettermodell macht faktisch dann die Vorhersage. Das ist so eine Art Abstraktion. Das Wettermodell muss man sich vorstellen wie einen Profi-Wetterexperten, der sagt, wenn gestern das Wetter warm war, wird es morgen wahrscheinlich auch warm sein. Und das ist die Vorhersage. Das heißt, das Wettermodell nimmt die historischen 14 Tage des Wetters und macht eine Vorhersage, wie das Wetter in den nächsten sieben Tagen sein wird. Zum Beispiel Temperatur, Bewölkung oder Niederschlag. Das heißt, nochmal zusammengefasst, jeder Algorithmus funktioniert nach dem Prinzip, nämlich man hat einen Datentopf. Darauf tut man einen Algorithmus, der produziert ein Modell, in dem Fall das Wettermodell, und dann nimmt man Echtzeitdaten und macht eine Vorhersage über die Zukunft. Beim Wetterbericht ist das klar, jeder versteht Temperatur, Luftfeuchtigkeit, Druck oder Regenwahrscheinlichkeit. Und jetzt mache ich das Beispiel nochmal für die selbstfahrenden Autos. Da hat man halt nicht diese einfachen Wetterdaten von historischen Wetterstationen, sondern hochkomplexe Datenstrukturen mit Millionen gefahrenen Kilometern mit allen möglichen Sensorendaten. Tut darauf ein ganz schwieriges Recurring Convolutional Neural Network oder was auch immer, einen ganz schwierigen Algorithmus. Und das Modell entscheidet 50 Mal pro Sekunde, gebe ich Gas oder bremse ich oder lenke ich rechts oder links und zwar anhand der aktuellen Sensorendaten. Und bei selbstfahrenden Autos ist es so schwierig, weil es so schnell geht und eine ganz komplexe Entscheidung ist. Aber so funktioniert faktisch jeder KI-Algorithmus oder Machine Learning-Algorithmus. Und die einzige Frage ist nur, welche Daten habe ich im Datentopf, welchen Algorithmus habe ich und welches Modell wird erstellt? und welche Echtzeitdaten nehme ich, die das Modell benutzen, um eine Vorhersage zu machen.
Joel Kaczmarek: Gut, also haben wir schon mal ein erstes und vermutlich auch das zentrale Learning unseres Podcasts heute, dass eigentlich KI sich sehr, sehr oft um diesen Aufbau dreht, dass man Daten nimmt, mit einem Algorithmus verarbeitet und dann im Prinzip ein Modell der Welt um uns herum erzeugt, das in irgendeiner Art sozusagen strukturiert ist. Muss das immer so sein? Oder ich glaube, das ist vielleicht auch mal ein ganz interessanter Edge-Case. Es gab ja so diese Geschichte von diesen Google-Server-Farm, wo du irgendwie eine KI hast rüberlaufen lassen, oder das hat Google gemacht, und die Server-Farm optimieren. Und man wusste hinterher teilweise gar nicht ganz genau, warum man was tut. Also warum manche Sachen jetzt zu x Prozent Einsparung führen an Energie. Das heißt, es gab irgendwie so, weiß ich nicht, 30, 40 Punkte oder so, was an den Dingern sozusagen geändert werden musste. Also wie war die Schaltung? Wie bleibt man an einen Knoten gebunden? I don't know, ganz viele unterschiedliche Dinge. Und de facto hat es zu einer signifikanten Reduzierung des Stromverbrauchs geführt. Der Mensch wusste hinterher aber eigentlich gar nicht genau, was da sozusagen welchen Ausschlag gegeben hat. Das heißt, es kann sogar so weit gehen, dass uns sozusagen ein Computer einen Algorithmus auf Daten anwendet und ein Modell erzeugt, das wir hinterher gar nicht mehr verstehen.
Erik Pfannmöller: Richtig. Und ja, das ist so. Nicht alle Algorithmen sind hundertprozentig verständlich, was sie tun. Darüber ist auch gerade eine große ethische Debatte über das Thema Algorithmus-Blackbox und wie das Modell entsteht und was das Modell eigentlich als Entscheidungsgrundlagen hat. Aber wir wollen halt, glaube ich, nicht über Ethik von AI sprechen oder KI, sondern mehr über die Anwendung davon. Und das ist eine große, wichtige Frage, ob man die Blackbox zulässt oder wie viel Transparenz eigentlich wichtig ist. Am Ende, glaube ich, dass Ergebnisse wichtig sind. Und wenn die KI besser ist als der Mensch, wie du gerade gesagt hast, und anhand von vielen, vielen Daten von einer Serverfarm den Stromverbrauch reduziert, ist es eigentlich egal, wie es das tut. Der Punkt ist, der Stromverbrauch der Serverfarm ist um 30 Prozent niedriger.
Joel Kaczmarek: Was für Arten gibt es denn eigentlich von KI? Also was du ja gerade schon so ein bisschen hast anklingen lassen, wenn es um Moral geht und irgendwie so um die Ängste der Menschen. Das ist ja eigentlich immer so, wenn ich mich nicht täusche, sind es so diese Superintelligenzen teilweise. Also Terminator lässt grüßen mit irgendwie, ich glaube InGen hieß die Firma damals, die sozusagen Maschinen erzeugt, die irgendwie besser sind als der Mensch. Und dann stellt sich immer die Frage, so wie wir Ameisen wahrnehmen, so nimmt ein Computer uns da, was passiert denn dann? Also was für Typen gibt es denn eigentlich in Richtung KI?
Erik Pfannmöller: Man unterscheidet drei große Typen. Die haben die englischen Begriffe Artificial Narrow Intelligence, ANI, Artificial General Intelligence, AGI und Artificial Super Intelligence, ASI, auch genannt, wenn man die Abkürzung mal sieht. Ich fange mal bei der ersten, bei der Narrow Intelligence, so wie das Wort Narrow auch schon sagt, eine enge Intelligenz. Das sind ganz spezielle Prozesse, wie zum Beispiel die Optimierung einer Serverfarm, Oder ein Chatbot, der vielleicht irgendwas besonders gut kann. Also was ganz Spezielles, wo die Maschine einfach besser ist als der Mensch. Das ist um uns herum bereits heute schon total oft. Jeder, der ein Smartphone in der Hand hat, hat eine Artificial Neural Intelligence in der Hand, weil Apple die Fotos erkennt, weil man Nachrichten diktieren kann. Das heißt, ein Algorithmus, machen wir mal das Thema Nachrichten diktieren. Jeder diktiert WhatsApp-Nachrichten und die werden dann Speech-to-Text transkribiert. Diese Maschine kann das besser und schneller als Menschen, weil das ein Computer macht. Und das ist eine Artificial Narrow Intelligence. Ein ganz spezieller Prozess. Artificial General Intelligence definiert man als bereichsübergreifend Dinge tun. Ich würde sagen, ein selbstfahrendes Auto, wo wir noch weit weg sind, ist schon eher so eine General Intelligence. Das ist schon etwas sehr Schwieriges. Das ist nicht nur eine einfache Sache, das ist ein sehr komplexer Teil, wo man auch zwischen verschiedenen Bereichen Transfer Learning machen muss. Weil um ein selbstfahrendes Auto zu machen, muss man ganz viel verstanden haben. Nicht nur Einen kleinen Prozess. Und dann kommen wir sozusagen zu der Superintelligenz. Man sagt auch, die General Intelligence ist sozusagen die Qualität eines Menschen, der verschiedene Bereiche kennt. Und die Superintelligenz, davor, wovor alle Angst haben, der Terminator oder die Matrix, das ist das, wenn auf einmal die Computer so gut werden, besser als wir, aber eine Million mal schneller rechnen können, dann ist ein Computer so gut wie eine Million Menschen zusammen. Und keiner kann sich vorstellen, was passiert, wenn man anstatt einer Million Forscher für ein Jahr arbeiten lässt, eine Superintelligenz ein Jahr wie eine Million Forscher arbeiten lässt, aber sich davon 100 Computer hinstellt. Was dann passiert mit dem Wissen der Welt? Deswegen haben viele Leute davor Angst. Ich selbst weiß auch gar nicht, was passiert. Ich weiß nur, dass es sehr, sehr, sehr weit weg ist. Man nennt auch diesen Begriff die Singularity oder den Moment, wo die Computer klüger werden als die Menschen. Dass es gibt verschiedene Arten, um das nochmal zusammenzufassen, eine Narrow Intelligence, eine General Intelligence und Super Intelligence. Heutzutage spricht man in 98 Prozent der Fälle über eine Narrow Intelligence, weil es einfach nur ein Algorithmus ist, der mit maschinellem Lernen einen bestimmten Geschäftsprozess verbessert.
Joel Kaczmarek: Gut. Ani, Agi, Asi. Also Asi wurde ich auch schon mal genannt, aber da hat man, glaube ich, nicht meine Superintelligenz gemeint. Kannst du, wenn du eben in so einem Beisatz gesagt hast, du weißt, dass das ganz weit weg ist, mal vielleicht ein bisschen Einschätzung geben? Weil man hat ja all die Zitate schon mal gelesen, Elon Musk. Bill Gates, Stephen Hawking, alles große Warner vor dem Thema Superintelligenz, KI, was dann irgendwie passiert. Wie realistisch ist denn das? Zumal ich auch so aufgeschnappt habe, dass das menschliche Gehirn schon eigentlich sehr, sehr performant, sehr viel Rechenpower hat sozusagen und man das auch mal so ein bisschen gerne schnell kleinredet, wenn man so diese ganzen Science-Fiction-Filme im Kopf hat. Also was verleitet dich zu der Aussage, dass du sagst, du weißt, dass das noch ganz weit weg ist?
Erik Pfannmöller: Ich sehe im tagtäglichen Umgang mit Algorithmen und Mathematik, wie schwierig das ist, so ein maschinelles Lernen, eine KI zu bauen. Das ist wirklich schwierig. Nicht umsonst schaffen es die größten Autohersteller nach Jahren noch nicht, das selbstfahrende Auto zu bauen. Es ist einfach sehr, sehr, sehr schwierig. Ich bin ebenso wie, wie du gerade sagst, Elon Musk oder Stephen Hawking der Auffassung, dass die Superintelligenz kommen wird. Es ist nur eine Frage, wann. Da gibt es andere Profis, die sagen 2040, 2050. Sie wird kommen. Und wenn sie kommt, ist die Frage, wie schaffen wir es, dass sie uns nicht ausrottet, sondern dass sie mit uns lebt. So wie wir, wenn wir jetzt die Übermenschen zu Ameisen sind, wir auch Ameisen einfach mal umsiedeln. Und diese Frage ist eine ganz existenzielle. Und man muss sich der Frage stellen. Und wenn man in die Zukunft schaut und weiß, etwas wird passieren, warum sollte ich warten, damit mir Gedanken darüber zu machen? Aber es werden ja Milliarden investiert in die Forschung nach Ameisen. Wie kann man Algorithmen kontrollieren? Und was ist eigentlich die Moral von AI? Und das ist wichtig und richtig. Nichtsdestoweniger ist es noch weit weg. Und man braucht davor vor allem keine Angst haben, weil das bringt nichts.
Joel Kaczmarek: Ja, das wird spannend. Wenn du deine Autobauer triffst, kannst du ja mal die Moralfrage machen. Da gibt es ja auch oft, soll ich bremsen? Soll ich hier meinen Fahrer umbringen oder eher des anderen Fahrzeugs? Also solche Fragen sind ja da.
Erik Pfannmöller: Kleiner Exkurs dazu. Da gab es mal ein Experiment von der Stanford University vor zwei Jahren, da habe ich selbst mitgemacht. Das war ein Online-Spiel und da musste man sich entscheiden, wer sterben soll in verschiedenen Szenarien. Zum Beispiel, das Auto hat Bremsversagen und soll jetzt das Auto vor den Baum fahren und der Fahrer sterben oder der Passant, der über die Straße geht. Und dann haben sie zum Beispiel gesagt, was passiert, wenn der Passant bei Rot über die Straße geht und das Auto Grün hat. Das heißt, dann haben sie über diese Kombination von, jetzt gehen zwei Passanten bei Grün über die Straße, zwei Passanten bei Rot, eine Familie bei Grün, eine Familie bei Rot, fünf Hunde bei Grün. Und dann sitzt im Auto auf einmal eine Familie und zwei Alte gehen über die Straße. Wer soll sterben? Diese Fragen kann keiner so richtig beantworten, aber eine Maschine muss die Entscheidung treffen.
Joel Kaczmarek: Es gibt ja auch diesen Klassiker von diesem Harvard-Spiel, dass jemand auf der Brücke steht, sieht unten eine Gruppe von fünf Menschen auf einem Bahngleis stehen. Kennst du die Geschichte?
Erik Pfannmöller: Nee, erzähl mal.
Joel Kaczmarek: Fünf Menschen stehen auf einem Bahngleis und werkeln da, haben Kopfhörer auf, es ist sehr laut. Das heißt, du kannst nicht hinschreien und sie hören dich. Und es gibt ein zweites Gleis, da ist eine Person irgendwie und arbeitet an den Gleisen und du siehst einen Zug kommen. Das heißt, du hast einen Wissensvorsprung vor dieser Gruppe und stehst jetzt vor der Entscheidung, es gibt eine Weiche an der Brücke, die du stellen könntest. Momentan fährt der Zug auf die fünf Menschen zu. Was tust du? Stellst du die Weiche um, dass nur die eine Person stirbt? Oder machst du nichts mit der Weiche und nimmst in Kauf, dass fünf Leute sterben?
Erik Pfannmöller: Und das ist genau die Frage, die wir auch bei der Universität an der Stanford University herausfinden wollten. Weil Menschen treffen diese Entscheidung nicht, denn sie haben die kognitiven Fähigkeiten nicht, diese Entscheidung aktiv zu treffen beim Selbst von einem Auto. Aber Maschinen können sie treffen, denn die berechnen 50 Mal pro Sekunde die Entscheidung, die sie treffen. Und deswegen müssen wir die Frage stellen. Menschen haben sich der Frage noch nie gestellt, weil wir stellen die nicht. Wir treffen intuitiv in Krisensituationen im Auto die Frage.
Joel Kaczmarek: Es gab da sozusagen die Antwort, man solle nicht handeln. Also du wärst tendenziell, durch dein Eingreifen hast du einen Menschen getötet, de facto. Durch dein Nicht-Eingreifen hast du aber nicht fünf Menschen getötet, sondern es war sozusagen, du hast keinen aktiven Einfluss auf den Tod dieser fünf gehabt, sondern nur aktiv auf das einen. Das ist sozusagen so dieses Spiel dort gewesen.
Erik Pfannmöller: Würde ich jetzt argumentieren, wenn man hundertmal vor der Entscheidung steht, ist es irgendwie schon besser, lieber weniger Menschen zu töten. Es ist ja weniger Leid auf der Welt, aber Wie wir schon gesprochen haben, das Thema Moral und Algorithmen ist was, was wir vielleicht später nochmal aufgreifen können.
Joel Kaczmarek: Ja, da stecken ganz viele Sachen drin, die man gar nicht abwägen kann. Wenn das irgendwie ein Philanthrop ist und die Fünf sind irgendwelche potenziellen Neonazis und gründen fünf Jahre später eine Sekte, die ganz viele Menschen tötet. Anyway, wir schweifen ab. Kommen wir zurück zum Thema. Wir haben jetzt diese Arten besprochen von KI, also Narrow General Intelligence. Und super, um es mal so grob nochmal zusammenzufassen. Du hast gesagt, maschinelles Lernen ist eigentlich Daten mit dem Algorithmus zu einem Modell verarbeiten. Jetzt können wir über Algorithmen auch nochmal ein Stück weit reden. Das heißt, es gibt ja auch von Algorithmen quasi nochmal Typen und bestimmte Arten, die man gruppieren kann.
Erik Pfannmöller: Es gibt grundsätzlich drei Typen von Algorithmen. Die einen sind Supervised Learning Algorithmen. Man sagt auch überwachtes Lernen. Dabei geht es darum, dass man weiß, was das Ergebnis ist. Zum Beispiel, ich bleibe mal beim Thema Bilderkennung. Ich weiß, dieses Bild ist eine Katze. Wenn ich die reale Antwort kenne, ist das Supervised Learning. Das heißt, ich weiß, was die Antwort ist für die Maschine. Wenn ich also 1000 Bilder habe und sage 500 Katzen, 500 Hunde, dann habe ich Daten für einen Supervised Learning Algorithmus. Es gibt unsupervised Learning. Da gibt es sozusagen zum Beispiel Clustering-Algorithmen. Das heißt, ich würde sagen, ich gebe dir einfach 500 Katzen, 500 Hundebilder, aber die Maschine weiß nicht, was eine Katze, was ein Hund ist. Die muss rausfinden. Sie muss ein Cluster bilden, dass es 500 Arten eines Typus gibt, nämlich die Katze. Weiß aber die Maschine nicht, ist ja kein Mensch. Und 500 andere Typen. Es ist eine Art unsupervised learning. Das benutzt man oft vor supervised learning Algorithmen, um Muster zu erkennen. Und dann gibt es noch eine andere, dritte Kategorie, reinforcement learning, auf Deutsch bestärkendes Lernen. Hier baut man so eine Art Miniatur-Umwelten nach. Man kann sich das wie ein Computerspiel vorspielen, das der Algorithmus spielt. Zum Beispiel kann man Super Mario mit einem Reinforcement Learning Algorithmus machen. Das heißt, der Computer spielt Super Mario virtuell durch, hunderte Male und lernt nach jeder Iteration was dazu und fängt wieder neu an. Das heißt, er spielt in einer Art Simulation durch und lernt, dass es gut ist, bei Super Mario nach rechts zu laufen und sich die Münzen zu holen. Und das lernt er aber auch. Aber er lernt das, indem er sich selbst simuliert. Reinforcement Learning ist da der Begriff. Und das eigentlich interessante ist jetzt, es gibt da drei Begriffe, Supervised, Unsupervised und Reinforcement Learning. Und dann gibt es ja noch das Thema Deep Learning oder neuronale Netzwerke. Und man muss verstehen, dass neuronale Netzwerke ein Typus von Supervised Learning Algorithmen sind. Und zwar gibt es bei Supervised Learning verschiedene Algorithmentypen. Da gibt es Support Vector Maschinen, die sind jetzt nicht so bekannt. Da gibt es Bayesische Netze oder Bayesian Networks, da gibt es Decision Tree Algorithmen und da gibt es auch zum Beispiel neuronale Netzwerke. Das heißt, neuronale Netzwerke sind eine Gruppe von Algorithmen, die man im Supervised Learning benutzt. Und das ist jetzt ein Riesenhype. Warum ist das so toll, diese neuronale Netzwerke? Weil man durch die Rechenkraft der Computer riesengroße Datenmengen mit neuronalen Netzen verarbeiten kann. Und deswegen ist es so ein großer Hype, dass seit ein paar Jahren das Thema aufgekommen ist, weil man neue Probleme lösen kann, die man vor zehn Jahren auch nicht lösen konnte, weil die Computer schneller geworden sind.
Joel Kaczmarek: Bevor wir das vertiefen, können wir vielleicht nochmal ein bisschen weiter auseinanderpflücken. Also ich habe lustigerweise in Israel mal ein Beispiel für Unsupervised Learning kennengelernt. Da waren wir an so einer Uni, die natürlich mal ganz viel fürs Militär machen und die haben im Prinzip Roboter gebaut. für Transport von Militärgepäck. Weil wenn die Israeliter durch die Pampa marschieren, haben die sozusagen nicht die Lust oder auch nicht mal die Kraft oder es verschleißt einfach, wenn die ihre Rucksäcke tragen. Die vierbeinige und zweibeinige Roboter, ganz interessant, vierbeinige waren so Lamas nachempfunden und zweibeinige den Menschen. Und dann haben die im Prinzip diesen menschlichen Roboter genommen und ihm gesagt, er soll so einen Berg runterlaufen und haben ihm aber nicht gesagt, wie er das tun soll, sondern die Zielsetzung vorgegeben, er soll hinterher stehen und möglichst sozusagen sturzfrei darunter kommen. Und was der irgendwann gemacht hat, war, der ist seitlich gegangen. Also der hat rückwärts ausprobiert, der hat vorwärts ausprobiert und seitlich war dann, glaube ich, so der Weg, vielleicht war es auch rückwärts, aber ich glaube, es war seitlich, was für ihn der beste Weg war, dort runterzukommen. Und die hatten eigentlich keine Ahnung, wie er darauf gekommen ist oder warum und das fanden die aber super spannend aus dem Hintergrund sozusagen. Und vielleicht können wir auch noch mal ein bisschen was über Reinforcement Learning sagen. Das war doch, glaube ich, diese Go-Geschichte auch, oder?
Erik Pfannmöller: Ich glaube, das, was du gerade beschrieben hast, war auch Reinforcement Learning. Wenn man das Ziel vorgibt und so eine Art Wertfunktion hat, nämlich du musst runterkommen, so weit wie möglich. Man kann manche Probleme auch mit verschiedenen Algorithmentypen lösen. Ich mache mal ein Beispiel für Unsupervised Learning. Man hat eine Stadt und gibt der sozusagen die Immobilienpreise und die Häuser und man muss jetzt verschiedene Cluster finden von so einer Art Kieze rausfinden, die zusammenclustern. Das heißt, dann muss der Algorithmus Zusammenhänge erkennen von ähnlichen Leuten, die wohnen in ähnlichen Gebieten und die sind nicht eben durch Straßen getrennt, sondern was ist das beste Cluster innerhalb einer Stadt. Oder man versucht, innerhalb von Daten aus dem Weltraum besondere Anomalien zu finden. Das heißt, irgendwas rauszufinden, wo man gar nicht weiß, was es ist. Man will nur erstmal eine Anomalie finden, etwas Besonderes finden. Das ist unsupervised learning.
Joel Kaczmarek: Ah, okay, siehst du, dann habe ich mich vielleicht sogar doch geirrt. Ich hätte mir gedacht, dass bei diesem Reinforcement Learning, habe ich gleich so an dieses Go gedacht. Da hatten sie doch mal eine Maschine. Und ich glaube, Fabian Westseider hatte mal in einem unserer Podcasts von Tetris erzählt, dass sie eine Maschine Tetris haben spielen lassen. Und die hat dann unfassbar viele Punkte gemacht, weil sie einen Glitch gefunden hat in der Programmierung, hat den ausgenutzt und hat eigentlich geschummelt. Also das sind sozusagen mal ein paar Beispiele.
Erik Pfannmöller: Das eigentlich Interessante ist, dass sozusagen aber eigentlich unsupervised learning mehr in der Forschung und in Grundlagenforschung benutzt wird. Und das Thema Supervised Learning eigentlich fast immer, wenn man über KI spricht, benutzt wird. Denn Supervised, nochmal zum Mitschreiben, heißt, ich kenne die Realwelt. Beispielsweise E-Mail-Spam. E-Mail-Spam-Filter ist auch ein Algorithmus. Und man weiß, diese E-Mail ist entweder Spam oder sie ist Ham. Also sie ist gut. Spam oder Ham. Und wenn ich das weiß, oder auf einem Bild, Katze oder Mensch, oder beim selbstfahrenden Auto, gibt ein Unfall, gibt kein Unfall, ist es richtig oder falsch, dann habe ich einen grundsätzlichen supervised learning Ansatz. Und dann ist nur die Frage, mein Datenschatz, welcher Algorithmus kann diesen Datenschatz zum besten Modell machen? Und was man macht, ist, man nimmt verschiedene Algorithmentypen und es ist nicht immer klar, dass neuronale Netzwerke die beste Vorhersage tun. Sondern wenn man wissenschaftliche Paper dazu liest, Da gibt es verschiedene Datensätze, die für die Wissenschaft aufbearbeitet sind. Zum Beispiel einen ganz bekannten zur Image Recognition, also wo man erkennt, was auf Bildern ist. Und es ist so, dass verschiedene Algorithmentypen, zum Beispiel eine Support Vector Maschine, manchmal besser ist als ein neuronales Netzwerk. Oder ein Bayesisches Netz besser ist als eine Support Vector Maschine oder ein neuronales Netz. Und auch unter neuronalen Netzen gibt es wiederum Subtypen. Aber so tief sollten wir jetzt nicht reingehen.
Joel Kaczmarek: Aber wir können ja mal so ein paar Beispiele durch die Linien und versuchen, die selber einzuholen. Also wir hatten gesagt, wir haben die Narrow, die General und die Artificial Superintelligence. Also Super können wir ja schon mal aussortieren und eigentlich wird wahrscheinlich ganz viel Narrow sein. Und dann haben wir diese drei Ebenen, Unsupervised, Supervised und Reinforcement Learning. Wenn ich jetzt zum Beispiel irgendwie ein Tumbler bin, habe mich gerade entschlossen, ich will jetzt Porn von meiner Seite vertreiben. Also haben die ja gesagt, wir wollen uns irgendwie auf wertigen Content konzentrieren, wir wollen sowas nicht mehr. Und jetzt hast du eine Maschine, die quasi den Auftrag hat, guck dir alle Bilder an, die in unseren Tumblr-Blocks sind und wenn das irgendwie mit Naked Eyes zu tun hat, dann mach da irgendwie Sense-Hort drüber oder sag halt, das ist Adult-Content, das wollen wir hier nicht. und verlinke auf eine Erklärung. Wäre das jetzt so klassischerweise eine Narrow AI und Supervised Learning oder ist das sozusagen schon wieder Reinforcement Learning, weil ich ein Ziel vorgebe?
Erik Pfannmöller: Auf jeden Fall ist es eine Narrow Intelligence und man kann das jetzt in zwei Arten strukturieren. Wenn du Menschen hast, Editoren, die sich 100.000 Bilder anschauen und sagen, Adult Content, normaler Content, dann hast du ja faktisch die gelabelten Daten, du weißt es. Dann gibst du der Maschine die 100.000 Fotos, wo du sagst, Adult, Not Adult. Und das ist dann Supervised Learning und sagst, nimm einen Algorithmus und sag mir für die nächsten 100.000 Bilder, das eine sind die Trainingsdaten und das andere sind die Testdaten, die Realdaten, sag mir, ob das Adult oder nicht ist. Das ist eine Vorhersage und du hast auf Daten mit einem Algorithmus trainiert in einem Supervised Learning Prozess. Eine andere Fragestellung ist, du nimmst alle deine Bilder von Tumblr und sagst, sag mir, was es für verschiedene Cluster gibt. Und vielleicht findet der ja raus, dass es ein Cluster gibt, das eben Adult-Content ist, weil die anders aussehen. Das wäre dann ein Unsupervised-Learning-Ansatz. Meistens macht man es aber anders, weil es viel schwieriger ist. Man sagt einfach Setzen ein paar Menschen hin, die sollen das taggen, die sollen sagen, was ist das Bild? Und dann muss der Algorithmus von den Trainingsdaten nur noch in die Zukunft projizieren, also die neuen Bilder erkennen.
Joel Kaczmarek: Wie muss man sich das vorstellen, wenn jetzt der geneigte Zuhörer zuhört und sagt, okay, lustig, ich habe ein ähnliches Problem gerade oder will auch von Chatbots was machen. Gibt es mittlerweile solche Dinge eigentlich von der Stange? Also man muss ja sicherlich einem Computer nicht mehr beibringen, was Adult Content ist oder Gesichtserkennung oder, oder, oder. Also kann ich mir mittlerweile so eine Art Bibliothek einkaufen, wenn ich sowas machen möchte?
Erik Pfannmöller: Ja, man muss es nicht mehr selbst machen. Einerseits kann man sich Rechenkraft und Algorithmen einkaufen. Da gibt es so Sachen wie Google Tensorflow. Das ist so eine Art grafisches Interface, mit dem man ohne Programmieren Daten wohin schieben kann. Da kommt ein Algorithmus und der kommt mit einem Modell zurück. Das heißt, es gibt Algorithmen mittlerweile, ja, out of the box. Und es gibt auch vortrainierte, zum Beispiel natürlichsprachliche Modelle. Da gibt es Firmen wie Wit.dialogflow, heißen die, ist auch ein Google-Projekt in dem Fall. Und da kann man sozusagen auf vortrainierten natürlichsprachlichen Modellen auch Vorhersagen machen. Das heißt, ja, sowas gibt es. Und man muss konkret sich überlegen, für meinen Anwendungsfall gibt es in dem Fall meistens ein Software-as-a-Service-Modell, das ich benutzen kann. Mir fällt gerade noch eins an für Bilderkennung. Bilderkennung, ganz klar. Du schiebst ein Bild über eine Schnittstelle zu einem Server. Das ist ein Dienst, muss man dann pro Bild einen Cent bezahlen oder 0,1 Cent. Und du kriegst zurück, was es ist und mit welcher Wahrscheinlichkeit es ein Wald oder ein See oder ein Berg oder ein Tier oder eine Katze ist. So etwas gibt es schon. Und das wird auch sasifiziert, wenn man das Wort so benutzen darf.
Joel Kaczmarek: Okay, nicht schlecht, nicht schlecht. Und jetzt sollten wir aber nochmal zwei, drei Sätze sagen über neuronale Netze. Also du hast gesagt, das ist ein Unterfaktor von Supervised Learning und ich hätte das Gefühl, wenn man jetzt den geneigten Hörer hinterher fragen würde, eine kleine Abfrage machen, was ist eigentlich ein neuronales Netzwerk, weiß ich nicht, ob der das schon sofort weiß. Was zeichnet ein neuronales Netzwerk aus?
Erik Pfannmöller: Ich versuche es mal zu sagen, ein neuronales Netzwerk ist dem Gehirn nachempfunden, dem menschlichen Gehirn. Und zwar haben wir in unserem Gehirn diese kleinen Sinneszellen. Und ich mache jetzt nicht die ganze medizinische Sache, sondern wir lernen über Erfahrungen. Das heißt, wenn ich meinem Kind einen Ball zuwerfe, dann muss das lernen, dass der Ball eine Flugkurve macht und es im richtigen Moment zugreift. Und immer wenn es den Ball trifft, das heißt gelernt hat, ich habe den Ball gefangen, dann lernt das Gehirn, aha, jetzt habe ich was richtig gemacht. Und wenn es daneben greift und der Ball hinfällt, dann hat das Gehirn gelernt, okay, jetzt hat was nicht funktioniert. Das heißt, wir haben immer einen Input, der Ball wird geworfen, der Output, ich habe. Und es gibt einen Prozess, der heißt Backpropagation oder Rückwärtsrechnen. Das Gehirn verändert die Stärke der Verbindung zwischen den Gehirnzellen. Und über diese Veränderung lernt das Gehirn langsam dazu. Und dieses langsame Lernen, immer weiter lernen mit mehr und mehr Übung, Das machen faktisch neuronale Netzwerke. Und das ist einfach nur eine Art von Algorithmus, wie er sich verändert. Und das Besondere ist, dass man halt mit diesen Algorithmen, dass man die größer machen kann und viele dieser Sinneszellen, so nenne ich sie mal, einbauen kann in verschiedenen Ebenen. Man kann mehrere neuronale Netzwerke miteinander kombinieren, wie unser Gehirn das auch hat, hat verschiedene Gehirnlappen. Und in vielen Fällen, das war das Neue, kann man komplexe Zusammenhänge mit dieser neuen Art von Algorithmus schaffen. Ohne neuronale Netzwerke würde es keine Image Recognition geben, würde es keine selbstfahrenden Autos geben und auch nicht dahin kommen, weil die besser komplexe Zusammenhänge erkennen können, wenn man viele Inputfaktoren hat.
Joel Kaczmarek: Also diese Schichtung ist ja so ein Element, was ganz oft kommt, wenn es um neuronale Netze geht. Also dass man hintereinander gestaffelt quasi, deswegen heißt es ja auch Netze, also der Pluralfaktor ist ja anscheinend zentral, wie ich es verstanden habe. Jetzt können wir ja abschließend auch uns mal der Frage widmen und wahrscheinlich steckt ein Teil der Antwort da drin, warum eigentlich künstliche Intelligenz so einen Hype-Cycle durchläuft. Also warum ist das seit gefühlt ein paar Jahren so gehypt, dass wenn man das auf seine Folie mit draufgeschrieben hat, man irgendwie mit größerer Wahrscheinlichkeit ein VC-Investment kriegt, als wenn man es weglässt. Und ich würde behaupten, ganz viele Leute sagen, sie machen KI, machen es gar nicht. Lag das daran, was du auch gerade beschrieben hast, dass man mittlerweile die Rechenpower hat, solche neuronalen Netze zu programmieren, dass man einfach mehr Daten erfasst kriegt und verarbeitet vor allem? Oder woran lag das?
Erik Pfannmöller: Zuerst muss ich schmunzeln, weil zum Thema VC-Investments und AI in die Domain oder aufs Pitch Deck schreiben, es gibt ganz viel, also ich habe letztens einen Blogartikel darüber geschrieben, dass ich sage, KI ist so ein bisschen wie Teenage Sex. Jeder spricht drüber, keiner macht es richtig, keiner weiß, wie es eigentlich funktioniert. Und wir sind davon weggegangen, uns KI zu nennen. Wir sagen nur noch maschinelles Lernen, denn keiner versteht so richtig, was es ist und alle sagen es. Und man muss unter die Haube schauen und sagen, was ist eure Vorhersage, welche Daten macht ihr und welchen Geschäftsprozess optimiert ihr eigentlich mit eurer Software? Und um auf deine Frage zu kommen, ich vergleiche manchmal KI mit dem Internet. 1995 hat man gesagt, das braucht keiner, niemand wird jemals Internet brauchen. Dann gab es eine riesenrose Blase, weil die Leute erkannt haben, damit kann ich was tun, was vorher noch nicht ging. Und jetzt, 2019, ist das Internet ubiquitär verfügbar und ohne Internet würde nichts mehr passieren. Man hört den Podcast gerade über das Internet. Wir sind im Machine Learning auch in dem Hype Cycle. Ich weiß nicht, ob die Blase schon geplatzt ist, aber es gibt viele Leute, die sagen, wie du sagst, man schreibt es aufs Pitch Deck. Viele reden drüber, aber es steckt nicht viel dahinter. Und es gibt da diesen Gartner Hype Cycle, wo man sozusagen diesen Innovation Trigger hat, den Peak of Inflated Expectations. Also alle erwarten was und keiner liefert es. Danach kommen diese Through of Delusionment, wo die Erwartungen nicht erfüllt werden. Habe ich auch schon zum Thema Chatbots gesehen. Chatbots 2016, Mark Zuckerberg sagt, you want to message a business the way you want to message a friend. Es gibt zigtausende Bots, keiner performt so richtig. Wo sind die ganzen Chatbots? Ja, es geht nicht um Chatbots, es geht um Geschäftsprozessautomatisierung, die die Produktivität erhöhen. Und dann zum Schluss kommt nach der Ernüchterung die Produktivitätsphase. Und beim Thema Chatbots glaube ich, dass wir schon durch sind und es schon Firmen gibt, wie SolveMate, die eben schon echte Ergebnisse zeigen können. Und das Thema KI generell ist aber ein Halbthema.
Joel Kaczmarek: Aber es ist ja auch irgendwie ein schönes Modell. Also wenn man das auf deiner Logik runter bricht, zu sagen, es gibt Daten, die verarbeite ich mit einem Algorithmus zu meinem Modell, dann ist es auch ein total fairer Bewertungsfaktor, weil du dann einfach sagst, welche Daten verarbeitest du zu welchem Modell, wie machst du das und welches Problem löst du damit? und welches Geschäftsmodell ist quasi das, was am Ende des Tages steht. Und je nachdem, mit welcher Qualität du das tust, rechtfertigt das ja auch eine unterschiedliche Form von Bewertung deines Unternehmens.
Erik Pfannmöller: Genau so würde ich das zusammenfassen. Jeder Algorithmus, jede KI muss einen bestehenden Geschäftsprozess besser oder schneller oder effizienter machen. Und da Computer nun mal weniger kosten als Menschen, wird irgendwas irgendwie günstiger oder automatisiert. Es geht immer um Automatisierung. Und eigentlich ist Künstliche Intelligenz nichts weiter, als etwas effizienter zu machen. So wie das Internet Dinge miteinander verbunden hat und dadurch wir digitale E-Mails oder WhatsApp-Nachrichten schreiben können und keine physischen Briefe mehr. Und genau diesen Impact, deswegen ist es auch wichtig, unseren Podcast weiterzuhören, denn das Thema KI wird einen großen, großen Einfluss auf jeden Geschäftsprozess in der ganzen Welt haben und dem kann man sich nicht verschließen. Man muss aktiv versuchen, das zu verstehen. Und so schließt sich so ein bisschen der Kreis, dass ihr auch das Ziel von AI unpluggt. Alltägliche Dinge, die mit KI zu tun haben, verständlich für jedermann zu erklären.
Joel Kaczmarek: Hervorragend. Ich freue mich schon sehr auf die weiteren Folgen. Magst du uns noch eine kleine Sneak-Preview geben, worum es in der nächsten Folge geht? Denn Sophie sei verraten, die ist schon im Kasten. Was kommt als nächstes?
Erik Pfannmöller: Die nächste Folge dreht sich um KI und Autos. Wir werden auch über selbstfahrende Autos sprechen, aber auch über viele andere Algorithmen, die alltäglich im Auto drin sind, die man als selbstverständlich sieht heutzutage.
Joel Kaczmarek: Hervorragend. Da bin ich mal gespannt, hier auf die Moraldiskussionen beim Auto dann, wie die ihre Stanford-Rätsel gelöst haben. Da freue ich mich ganz, ganz, ganz doll drauf und auch, dass du sehr viel jetzt produzierst, weil ich deinen Zugang zu dem Thema sehr erfrischend finde und sehr spannend. Und ja, schon mal vielen Dank an dieser Stelle. Danke, Joel.