Was passiert in der algorithmischen Blackbox?

11. Mai 2020, mit Erik Pfannmöller

Dieses Transkript wurde maschinell erstellt. Wenn dir ein Fehler auffällt, schreib uns gerne zu diesem unter redaktion@digitalkompakt.de.

Erik Pfannmöller: Hallo und herzlich willkommen zu einem neuen AI-Unplugged-Podcast von Digital Kompakt. Wie alle in der aktuellen Zeit sind auch wir im Homeoffice und dies ist die erste Remote-Aufnahme. Daher entschuldigt bitte, falls die Audioqualität nicht perfekt ist, wie ihr das sonst immer gewohnt seid. Wir sitzen nicht im gleichen Büro, sondern weit entfernt voneinander, verbunden über das Internet. Aber wie immer, mein Name ist Erik Pfannmöller, ehemaliger Kanu-Weltmeister, dreifacher Familienvater und Gründer von SolveMate, einer KI-basierten Plattform für eine verbesserte Service-Experience. Unsere Chatbots ermöglichen es unseren Kunden, dass ihre Endkunden ihre Serviceanfragen im Handel drehen und ohne menschliche Serviceagenten lösen können. Wie immer bei AI Unplugged erklären wir Alltagsthemen rund um das Thema KI einfach und für jedermann verständlich. Wir besprechen gesellschaftliche Umwälzungen durch KI und neueste KI-Trends. Heute geht es bei dem Thema AI Unplugged um das Thema KI und die algorithmische Blackbox. Dazu habe ich bei mir einen echten Experten, Ralf Kreuzer, Marketingprofessor an der Hochschule für Wirtschaft und Recht in Berlin, Trainer, Coach und Consultant. Herzlich willkommen, Ralf. Stell dich doch mal selbst vor.

Ralf Kreutzer : Ja, Erik, mache ich gerne. Mein Name ist Ralf Kreuzer, schon erwähnt. Ich habe nach meinem Studium in Mannheim dort noch promoviert, bin dann bei Bertelsmann eingestiegen, weiter als Geschäftsführer bei Volkswagen, dann bei der Deutschen Post in Bonn tätig gewesen und seit 15 Jahren bin ich Professor für Marketing in Berlin. Ich fühle mich da unheimlich wohl, weil ich Studenten und Studentinnen beim Wachstum begleiten darf. Ich brauche nichts verkaufen, ich kann sie beim Wachstum begleiten und Impulse geben und es ist ein sehr erfüllender Job.

Erik Pfannmöller: Das freut mich, finde ich interessant, wenn jemand sagt, er muss eigentlich nichts verkaufen, sondern ist in der Bildung tätig. Das ist gut, weil Bildung ist ja die Wirtschaft der Zukunft und da kann man auch ganz viel bewegen. Wir wollen heute über KI sprechen und vielleicht zuallererst die Frage, warum ist KI eigentlich wichtig in der heutigen Zeit? Und dann würde ich direkt eine provokante Frage machen, was muss man eigentlich heute tun, um nicht von der KI, von China oder von anderen Großmächten überrollt zu werden hier in Europa?

Ralf Kreutzer : Also für mich ist KI ein Game Changer, ein viel strapaziertes Wort, aber ein wichtiges, weil es die Prozesse in den Unternehmen, die Produkte und auch die Serviceleistungen ganz massiv verändern wird. Wir stehen heute ganz am Anfang dieser Entwicklung, aber ich habe schon seit mehreren Jahren mich mit dem Thema KI beschäftigt und gesehen, dass da ein gigantisches Potenzial erschlossen werden kann, wenn man sich frühzeitig mit diesem Thema auseinandersetzt. Ich war jetzt in den letzten vier Jahren dreimal in China, habe dort auch das wertvollste KI-Startup der Welt angeschaut. SenseTime war da mehrere Male, habe gesehen, was sie schon an Lösungen geschaffen haben. Und auf deine Frage China, man muss einfach schauen, was dort passiert momentan. Da wird mit ganz viel Geld in KI investiert. Wir investieren in Peking innerhalb der nächsten anderthalb Jahre mehr allein in Peking, als wir in unserem digitalen Masterplan in Deutschland in den nächsten drei Jahren investieren wollen. Wobei ich von dem Geld, was Deutschland ausgeben möchte, auch noch nicht wirklich viel gesehen habe. Also die machen einfach Sie können auf einen gigantischen Datenschatz zugreifen, viel umfangreicher, als es bei uns der Fall ist. Es lebe in Anführungszeichen die Datenschutz-Grundverordnung, die uns zu Datensparsamkeit zwingt, dazu möglichst wenige Daten wahrzunehmen. Für mich wird damit ein ganz zentraler, relevanter Datenstrom für viele Marketing-Anwendungen abgeschnitten. Das ist ein Wettbewerbsnachteil, den wir sehen müssen.

Erik Pfannmöller: Wir werden nachher in der Folge noch über lebenswegrelevante Entscheidungen treffen. Und das Beispiel absichtlich gerade China, das Thema Social Scoring, ist ja ein Algorithmus. Und da ist auch wiederum die Frage nach der Explainability, da kommen wir gleich noch dazu. Und die Kernproblemstellung, die wir heute befragen wollen, ist ja die algorithmische Blackbox. Zuallererst, was heißt eigentlich algorithmische Blackbox für dich? Und warum ist das eigentlich eine Herausforderung?

Ralf Kreutzer : Also, wenn wir über algorithmische Blackbox sprechen, sollten wir uns erstmal vor Augen führen, was ist der Kern eines Algorithmus? Ein Algorithmus ist ein Regelwerk, eine Vorgabe, wie Daten zu verarbeiten sind. Wenn diese Algorithmen, diese Regeln zur Datenverarbeitung einer Blackbox stecken, dann heißt das nichts anderes, als dass wir nicht erkennen können und nicht nachvollziehen können, was eigentlich die Blackbox aus den Daten macht.

Erik Pfannmöller: Wie das ja so oft bei neuronalen Netzen ist, wenn man Inputvariablen hat und die KI in Anführungszeichen ein Ergebnis ausspuckt und man gar nicht genau weiß, wie es da hingekommen ist. Das heißt, es gibt ja einfache Algorithmen, die sind ganz klar zu erklären und es gibt Algorithmen, die sind schwieriger oder komplexer. Und wir werden auch noch auf das Thema selbstfahrende Autos kommen später. Also wenn man nicht weiß, was zwischen Input und Output passiert.

Ralf Kreutzer : Das ist genau diese Blackbox bei den neuronalen Netzen. Dann kennen wir zumindest noch die Algorithmen, die eingesetzt werden. Wenn wir allerdings über KI sprechen, müssen wir über Machine Learning sprechen, über eigenständiges Lernen. Das heißt, der Kern der künstlichen Intelligenz besteht darin, dass sich die Algorithmen weiterentwickeln ohne menschliches Zutun. Das bedeutet, dass eine Startkonfiguration von Algorithmen sich im Lauf der Anwendung selber verändert und damit das Schwarz, was wir am Anfang hatten, zu einem Dunkelschwarz wird. Das heißt, dass wir noch weniger wissen. Das bedeutet, am Ende kommen Ergebnisse raus. Kunde A bekommt den Kredit, Kunde B nicht. Kunde A bekommt dieses Haus oder diese Wohnung angeboten als Mieter, Bewerber B nicht. Das heißt, wenn wir eine Akzeptanz für die Lösungen von KI schaffen wollen, müssen wir versuchen, zumindest diese Blackbox zu einer Greybox zu machen. Das Zauberwort dazu heißt Explainable AI. Das heißt, dass wir zumindest grob erkennen können, welches waren die Haupttreiber zu einer bestimmten Entscheidung. Wenn wir das nicht machen und nur noch Anwender haben, die sagen, da hinten fällt ein entsprechendes Ergebnis raus und ich weiß, ich drücke einmal den grünen Knopf jetzt und einmal den roten Knopf, Klar, in Zukunft wird die Maschine die Knöpfe selber drücken. Dann werde ich zu einem ausführenden Organ ohne eigene kognitive Beiträge degradiert. Das wird keinem Unternehmen und keinem Menschen auf lange Sicht gefallen und erfüllen.

Erik Pfannmöller: Ich habe so ein Beispiel für die Explainability. Wir wollten einen Telefonvertrag für meine Firma machen. Wir haben ja viele, viele Mitarbeiter. Sprich einen Vertrag für vielleicht 50 Euro im Monat. Und wir sind an dem Schufa-Score oder an der Kreditreform gescheitert für einen Telefonvertrag für 50 Euro, während wir aber ein Büro für zigtausende Euro im Monat mieten, weil wir einfach bei einem großen Telekommunikationssystem wieder nicht an die Hotline rangekommen sind. Und wir haben dann sozusagen versucht zu recherchieren, woran das eigentlich liegt, weil eine Firma, die zig Mitarbeiter beschäftigt, kann doch wohl mal einen kleinen Telefonvertrag kriegen. Und wir haben es nicht geschafft, dieser Backbox auf den Grund zu gehen, auf dem Dienstag. direkten Wege. Wir haben dann hinten rausgefunden, dass es einen Fehler bei den gespeicherten Jahresabschlüssen gab, bei der Kreditreform über Dreiecken. Was aber ein Problem war, weil der Mitarbeiter selbst an der Hotline oder die Mitarbeiter, die haben nur gesehen grün oder rot, den Knopf, den du gerade gesagt hast, konnten aber nicht erklären, woran es liegt. Was aber zu Real-Welt-Problemen führt, nicht nur, dass die Firma in dem Fall unseren Umsatz nicht bekommen hat, sondern wir zu einem anderen Anbieter gegangen sind, sondern auch, dass die Menschen oder auch Firmenkunden nicht die Services kriegen und das einfach zu schlechten Entscheidungen führt.

Ralf Kreutzer : Also die Herausforderung ist wirklich die, dass es auf lange Sicht wahrscheinlich nie möglich sein wird, wirklich diese Blackbox zu einer Whitebox zu machen. Das heißt, wir werden uns in der Zukunft wahrscheinlich Stück für Stück daran gewöhnen müssen, dass uns Entscheidungen vorgegeben werden oder empfohlen werden, die wir in der Gänze nicht mehr durchblicken. Weil selbst die weiterentwickelten Algorithmen werden von den Programmierern dann nur unter Mühe noch verstanden. Bei den Ergebnissen ist es genauso. Das heißt, ob wir wollen oder nicht, heißt für uns der Einsatz von KI Auch die Akzeptanz einer zumindest Greybox, aber in der Tiefe jede einzelne Entscheidung nachvollziehen zu können, das wird, so ist meine Einschätzung, nicht machbar sein, weil wir als Endnutzer dafür die Zeit nicht aufbringen wollen und weil wir auch dafür die Fähigkeiten gar nicht haben, weil da braucht man tiefes IT- und Datenverständnis. Von daher geht die Nutzung von KI einher mit dem, was wir bei anderen Technologien auch aufgebracht haben. nämlich Vertrauen. Wir setzen uns in Flugzeuge, wir setzen uns in Autos, wir setzen uns in Züge und vertrauen darauf, dass die Technik funktioniert. Und ohne Vertrauen werden wir die Vorteile einer KI uns nicht erschließen können.

Erik Pfannmöller: Ich würde jetzt mal ganz salopp darauf antworten, ja, das ist richtig, aber wir brauchen doch nur auf die Ergebnisse anschauen. Und der Weg dorthin ist ja eigentlich egal. Ich muss die Blackbox gar nicht erklären. Beispielsweise Google Maps oder Navigation. Irgendwann habe ich aufgehört, weiter sozusagen zu hinterfragen. Ich weiß nicht, der Zeitpunkt war vielleicht vor fünf Jahren oder so. Früher habe ich gesagt, okay, ich kenne mich aus, ich vertraue nicht den Echtzeitdaten. Gibt es eine bessere Route? Ich prüfe das nochmal. Mittlerweile vertraue ich der KI Google Maps bei den Ergebnissen, weil ich oftmals gute Ergebnisse hatte und mehrfach mich dazu entschieden habe, den Stau zu umfahren, aber dann eben in einen größeren Stau gefahren bin. Und Google Maps mir gesagt hat, fahr bitte durch den Stau durch. Das heißt, wie siehst du die Verbindung zwischen Realweltergebnissen, dass ich spüre, dass etwas besser ist, weil ich habe ja keinen Aufwand mehr mit Routenplanung heutzutage, im Vergleich zu, ich muss zuerst vertrauen. Ist das ein Henne-Ei-Problem oder was kommt zuerst?

Ralf Kreutzer : Wenn wir uns die Entwicklung von KI anschauen, sehen wir, dass wir in den letzten Jahren gigantische Sprünge gemacht haben. Das heißt, dass die Ergebnisse sehr viel besser geworden sind im Laufe der Zeit. Das ist bei jeder Technologie so, dass die mal mit Tolbern loslegt, um dann besser zu werden. Wir sind momentan in der Trainingsphase von KI. Wir haben noch keine perfekten Lösungen. Ein schönes Beispiel ist ja das von der Telekom gesponserte Projekt, aus den Fragmenten der 10. Sinfonie von Beethoven die 10. tatsächlich zu komponieren. Am Anfang waren die Spezialisten überrascht davon, was da rauskam. Das hat überhaupt nicht nach Beethoven geklungen. Dann muss man nachstellen, im Kaisers dem noch weiter Input geben. Dann soll diese Sinfonie wahrscheinlich jetzt auch remote vorgestellt werden, komponiert aus den Fragmenten von Beethovens 10. Sinfonie eine echte 10. Sinfonie zu machen. Auch da war ganz klar am Anfang, es hat noch geholpert, da kamen Sachen raus, die überhaupt nicht konsonant waren und und und. Aber langsam hat der Algorithmus dann gelernt, was eigentlich dazugehört, dass man Musik komponiert. Wir sind am Anfang des Lernpfades und der wird noch länger sein. Auch KI wird mit Sicherheit zu sehr vielen Fehlentscheidungen führen, wie alle vorhergehenden Technologien auch. Die Frage ist nur, ob wir die Geduld mitbringen. Und ob wir auch die Fehlertoleranz mitbringen, damit wir dann zu einem Zeitpunkt X vielleicht in zwei, drei Jahren uns ruhigen Gewissens vielen Entscheidungen anvertrauen können, so wie wir es jetzt bei anderen Technologien auch machen.

Erik Pfannmöller: Manchmal geht es ja auch nicht nur sozusagen um kleine Entscheidungen wie, was ist die nächste YouTube-Recommendation für dich? Wenn ich mir YouTube vorstelle oder meine Google-Suchergebnisse oder wenn man jetzt TikTok sich anschaut, was ja ausschließlich algorithmisch getrieben ist in dem Content, den man konsumieren würde, wenn man TikTok benutzt, da verlässt man sich ja schon da drauf. Ich sehe sozusagen schon jeden Tag, dass Gmail mir beim Tippen von E-Mails Vorschläge macht, was mein nächstes Wort wäre und ich teilweise mit Tabletippen vorwärts springe. Das heißt, ich verlasse mich ja schon auf die KI. So blindes Vertrauen gibt es schon bei so ganz kleinen operativen Themen. Zum Beispiel, wenn Apple mir eine Fotovorschau macht von meinen Fotos. Es gibt ja aber auch größere Entscheidungen. Wir werden in einer der nächsten Folgen über KI und Führungsethik und Managemententscheidungen sprechen und auch sozusagen firmenstrategische Entscheidungen oder auch lebenswegrelevante Entscheidungen. Wie siehst du das?

Ralf Kreutzer : Aus meiner Sicht ist es wichtig in der heutigen Phase, in dieser Lernphase, in der wir sind, dass wir die beiden Intelligenzen verbinden. Die künstliche und die menschliche Intelligenz. Ich weiß es von einem Fall, den ich für ein Buch bei der Schufa recherchiert habe, dass sie tatsächlich KI-Systeme einsetzen, aber nicht um Menschen zu ersetzen, sondern um Menschen zu unterstützen, idealerweise noch bessere Entscheidungen zu machen. Das heißt, die haben die KI eingesetzt zusätzlich zu den Menschen, die eben diese Kreditentscheidung, diese Bonitätsentscheidung treffen. Das ist für mich in dieser Lernphase unverzichtbar. Das heißt, meine Empfehlung an die Unternehmen ist auch jetzt nicht, auf Teufel komm raus, Menschen zu ersetzen durch KI-Lösungen, sondern was jetzt angesagt ist, sind Tandemlösungen. KI plus menschliche Intelligenz, um nach und nach, so wie wir es in anderen Bereichen auch gesehen haben, dann mehr Vertrauen in diese KI-Systeme einsetzen zu können. Zum momentanen Zeitpunkt, da gebe ich dir absolut recht, ist eine Substitution nicht angesagt. In den meisten Bereichen, wenn es um, wie du so schön gesagt hast, Lebensentscheidungen geht, um Wegweisungen, um strategische Ausrichtungen, dann müssen wir, und ich sage ganz bewusst müssen, die beiden Intelligenzen zusammenführen. Und zum Zeitpunkt X, vielleicht in zwei oder drei Jahren, können wir mehr und mehr delegieren, weil wir dann den Systemen vielleicht sogar Werte beigebracht haben, um Entscheidungen auch wertebasiert vorzunehmen.

Erik Pfannmöller: Du hattest im Vorgespräch so ein sehr schönes Beispiel über die Studienplatzvergabe gemacht. Ich glaube, das ist sehr interessant für die Hörer, mal so ein Beispiel zu sehen, was eigentlich Lebenswegentscheidungen ausmacht und warum das eigentlich relevant ist und wie schwierig es eigentlich ist, weil manche entscheiden die Menschen so, wo Menschen zwischen den Zeilen ein Gefühl haben, was aber sehr schwierig ist, das Gefühl oder das Wertesystem, wie du es genannt hast, an einer Maschine weiterzugeben.

Ralf Kreutzer : Also ich kann berichten, wie wir unsere Studenten für den Masterstudiengang in Berlin an der HBR auswählen. Wir haben ganz klassisch ein schönes Scoring-Modell, wo eben der Motivation-Letter reingeht, wo die Durchschnittsnote vom Bachelorstudium einfließt und die Noten im Marketing. Das haben wir schön zusammengeführt in einem Scoring-Modell. Und ich suche dann die Bewerber aus, orientiert an diesen Scores. Und da war ein Fall, eine Bewerbung, die knapp unterhalb dieser Score-Werte lag. Und ich habe mir dann extra die Bewerbung nochmal angeschaut und habe gesehen, dass das von der Leistungssportlerin Lena Schöneborn war, die schon sehr erfolgreich internationale Wettkämpfe bestritten hat. Und ich habe dann dem Zulassungskomitee nochmal gesagt, schauen wir uns doch diese Bewerbung nochmal an. Das ist eine Leistungssportlerin, die hat in ihrem Leben neben der akademischen Ausbildung schon ganz vieles geleistet. Und ich würde die gerne mit reinnehmen. Meine Kollegen dann, ja klar, super Argument, wir nehmen sie mit rein. In der Zeit, in der sie bei uns an der Hochschule war, ich weiß jetzt nicht, ob das auf unsere Vorlesung zurückzuführen ist, hat sie in Peking olympisches Gold im modernen Fünfkampf geholt. Und wir haben ihr es ermöglicht, neben dem Studium anzugehen. als Leistungssportler aktiv zu sein und einen Abschluss, einen Master zu erreichen. Wenn wir uns nur auf ein Modell verlassen hätten, ohne dass nochmal menschliche Intelligenz eingeflossen wäre, wäre sie nicht zum Studienplatz bei uns gekommen und ihr Leben wäre anders verlaufen. Ob besser, schlechter, wissen wir nicht, aber sie wäre anders verlaufen. Und da ist es genau diese Tandemlösung, die wir brauchen, um zu sachlich guten und menschlich richtigen Entscheidungen zu kommen.

Erik Pfannmöller: Das ist sehr interessant. Du weißt ja, ich war selbst mal Leistungssportler und war selbst auch mal Wettmeister im Kanu. Und ich habe mein Grundstudium sozusagen auch an einer staatlichen Uni gemacht. Dann hat mein Hauptstudium, mein Master, dann an einer anderen Uni gemacht. Und ich kann sagen, wie viel Aufwand das ist, Profisportler zu sein und ein Studium zu machen parallel. und dass man nicht die besten Noten kriegen kann. Und diese Information allerdings, die hat keinen Algorithmus, weil es viel zu wenig Trainingsdaten dafür gibt, um das Pattern zu entdecken. Es gibt immer dieses Happy-Pfad-Thema im Sinne von der Standard, weil jemand hat eine 1,0 Bachelor und 1,0 Abi und hat alles irgendwie toll im Scoring-Modell, 100 Punkte. Aber dann kommt man in diese Grauzone rein, wo Genau der Flipping Point oder der Tipping Point ist, dass du halt weißt, hey, das ist interessant. und im Motivation Letter steht das und das drin und man Menschen so zwischen den Zeilen lesen. und dieses zwischen den Zeilen lesen ist so eine Art Heuristik, die uns über viele, viele Lebenserfahrungsjahre gegeben wurde, aber die hat ja eine KI nicht, denn die ist ja so eine Narrow Intelligence und auch keine General Intelligence und Menschen sind eben noch die General Intelligence. Das ist schon lebensentscheidend. Also die Datenlage ist ja immer, habe ich viele Trainingsdaten und Reflektierentscheidungen oft oder habe ich eher wenig Datenpunkte, wie ein kleineres Scoring-Modell, wo ich auch nicht so harte Fakten habe. Das ist ja oft so, vielleicht auch bei einem Gerichtsverfahren oder so.

Ralf Kreutzer : Also der zentrale Punkt ist wirklich neben den Algorithmen die Datenlage. Wenn ich schiefe Daten habe, wenn ich verfälschte Daten habe, wenn ich manipulierte Daten vielleicht sogar habe, wird das die Ergebnisse massiv verfälschen. Hier gibt es auch interessante, wirklich auch schockierende Ergebnisse aus den USA, wo man bestimmte Straftaten definiert hat und dann über einen Algorithmus dort entsprechende Strafen definiert hat. Und dann kam ein bestimmtes Ergebnis raus, zwei Jahre Gefängnis, drei Jahre Gefängnis, was auch immer. Und dann hat man diesen Datensatz, die Hautfarbe schwarz oder weiß, hinzugegeben. Und auf einmal haben sich die Strafen, die ermittelt worden sind, KI-gestützt, für die Afro-Americans massiv verändert. Warum? Weil KI einen Datensatz hatte aus der Vergangenheit, wo ganz häufig Menschen, Der Fall auftrat, dass eben Menschen mit einer anderen Hautfarbe, die Afro-Americans, härtere Bestrafungen ausgesetzt waren als Menschen mit einer weißen Hautfarbe. Und diese Diskriminierung, die hier vielleicht mit eingeflossen ist, hat dazu geführt, dass die KI gelernt hat, wenn hier die Farbe auf, bleiben wir jetzt mal ganz pragmatisch, bei schwarz steht, muss die Strafe härter ausfallen.

Erik Pfannmöller: Und das lernt die KI ja aus den Trainingsdaten, also aus der Historie. Das heißt, wir haben einerseits das Thema Shit in, Shit out. Das heißt, was ich in der Vergangenheit gemacht habe, muss ja nicht das Richtige sein. Aber wie kann ich die richtigen Werte, die richtigen Sachen mitgeben? Und die zweite Sache ist, ein mathematisches Modell oder ein Algorithmus ist ja immer eine Reduktion auf verschiedene Dimensionen. Und die Hautfarbe ist ja nur eine von vielleicht 100 verschiedenen Dimensionen. Aber jeder, der mal ein KI-Modell trainiert hat, weiß, je mehr Features, je mehr Dimensionen ich reinnehme, desto exponentiell steigt sozusagen die Anzahl Trainingsdaten, also die Anzahl der Fälle, die ich reinspeisen muss, rein. Deswegen gibt es ja ganz viele Verfahren zur Feature Reduction, was aber auch dazu führt, dass wenn ich mein Modell mit wenig Features, also mit wenig Variablen habe, kann ich einfacher Bias haben. Und genau so ein Beispiel wie du mit Elena Schöneborn, was ich ein sehr schönes Beispiel finde, was eine Randerscheinung wäre, die nur bei jedem Tausendstunden zutrifft, die geht nicht mit ins Modell rein. Und damit führt das zu einer Art Blackbox einerseits, wo ich aber auch nicht alle Daten drinne habe. Was glaubst du, wann fangen die Menschen an der KI blind zu vertrauen? Was ist der Flipping Point?

Ralf Kreutzer : Aus meiner Sicht ist erstmal die Voraussetzung, dass wir uns über diese Verzerrungspotenziale bewusst sind. Dass wir wissen, es gibt drei Quellen von Verzerrungen. Das sind einmal die Daten, wenn die schief sind. Die Algorithmen, wenn sie in einer bestimmten Richtung tendenziös sind. Und wenn die Programmierer, die diese ganzen Sachen anschieben, auch einen bestimmten Bias haben, sei es, dass es nur, ich sage mal ganz hart, weiße alte Männer sind. Wenn die einen Algorithmus trainieren, würde anders aussehen, als wenn nur Damen im Einsatz wären. Und von daher brauchen wir, wie in vielen anderen Bereichen des Lebens, auch Diversity. Wir brauchen Diversity in den Daten. Wir brauchen Diversity in den Algorithmen. Und wir brauchen, dass dies alles zum Tragen kommt, auch Diversity in denjenigen, die solche KI-Algorithmen entwickeln und anschieben und solche Systeme betreuen. Das heißt, worum wir uns bemühen müssen, ist tatsächlich eine Vielfalt von Datenquellen, eine Vielfalt von Algorithmen und eine möglichst breite Schar von KI-Interessierten Menschen, die solche Systeme entwickeln. Weil in dem Moment, wo wir nur in einem Bereich ein Beiß drin haben, wird der sich in den Lösungen niederschlagen. Das heißt, wir müssen ganz zwingend, und ich sage wieder ganz bewusst, müssen diese Gefahrenquellen ganz bewusst adressieren und eben beispielsweise dafür Sorge tragen, dass es eben Datensätze aus verschiedenen Ländern gibt, aus verschiedenen Kulturkreisen, Und dafür kann ich auch ein schönes Beispiel geben. Als wir bei SenseTime waren, war auch Gesichtserkennung. Und da wurde eben nicht nur der Schönheitsindex und Männlein, Weiblein abgeleitet aus dem Foto, sondern auch das Alter. Und ich wurde da vom KI-Index auf ein Alter von 46 geschätzt. Das hat mir sehr geschmeichelt. Das ist um signifikante Jahre daneben. Warum? Weil dieser Datensatz primär mit asiatischen Gesichtern trainiert worden ist. Das heißt, was wir brauchen, ist eine Koalition von internationaler Zusammenarbeit über Daten und Algorithmen, dass wir möglichst fehlerfreier, sage ich ganz bewusst, fehlerfrei werden wir nie sein, dazu sind wir Menschen, aber dass wir zumindest die absehbaren Fehlerquellen systematisch reduzieren. Und dann ist es natürlich auch wichtig, und das ist ja auch der Feedback-Loop, der mit der KI möglich ist, dass wir dann tatsächlich auch die Ergebnisse der Entscheidungen, KI-Basis getroffen worden sind, dem System wieder zur Verfügung stellen, um eben im Nachhinein festzustellen, dass wir in vielen Fällen aus bestimmten Gründen Menschen einen Job, eine Wohnung, einen Kredit nicht anvertraut haben oder anvertraut haben und nachher hinuntergefallen sind. Das heißt, diese Feedback-Loops müssen wir zwingend aufbauen, damit eben die KI auch aus dem gegenwärtigen Daten und aus dem Verhalten, was tatsächlich nach Entscheidung zum Tragen kommt, weiterlernen kann.

Erik Pfannmöller: Da erinnere ich mich gerade an so einen Fall, der war mal vor ein paar Monaten in den Medien, wo es einen tödlichen Unfall mit einem selbstfahrenden Auto gab von Tesla, wo man im Nachhinein versucht hat, den Fall zu rekonstruieren und sich dann zu entscheiden, was die KI eigentlich gesehen hat, wann sie entschieden hat, zu bremsen, nicht zu bremsen. und Spätestens wenn man sozusagen über Gerichtsentscheidungen und wer kriegt wie viel Gefängnis? oder über die KI kann das erste Mal entscheiden, will ich den Pfarrer töten oder den anderen? Auch wenn das hypothetische Beispiele sind, ist ja auch die Frage, was will man dem mitgeben? Will man dem gewisse Regeln mitgeben, im Sinne von zum Beispiel Männer und Frauen haben grundsätzlich a priori die gleiche Wahrscheinlichkeit, Verbrechen zu vergehen? Oder will man ihm vielleicht historisch mitgeben, nein, es ist ja eigentlich anders, weil 80 Prozent der Diebstähle werden von Männern gemacht und das sollte die Maschine auch mitgegeben Also von uns als Regel mitgegeben. Oder sollten wir einfach auf die Ergebnisse schauen und sagen, ja du, wenn er selbstfahrende Autos auf die Millionen Personenkilometer weniger Unfälle verursacht, dann ist uns vollkommen egal, was da drin ist. Und das ist ja diese Frage nach, uns ist eigentlich egal, was in der Blackbox drin ist, wenn die Ergebnisse besser sind, wenn weniger Menschen sterben, wenn im Durchschnitt weniger Fehlentscheidungen vor Gericht getroffen werden durch einen Algorithmus. Wie siehst du das?

Ralf Kreutzer : Wenn wir auf dieses Beispiel zu sprechen kommen, Unfall mit einem Tesla, selbstfahrendem Fahrzeug, dann muss ich ehrlich sagen, so tragisch es ist, dass eine Person zu Tode kam. Jeden Tag kommen tausende von Menschen in Autos zu Tode, weil Menschen falsche Entscheidungen treffen. Dieser eine Unfall hat dazu geführt, dass über Monate die ganze Testserie runtergefahren worden ist, weil man gesagt hat, das möchte man vermeiden. Das ist aber aus meiner Sicht der Irrglauben, dass Technologie immer zu 100% funktionieren kann. Da sind wir wieder beim Thema Vertrauen. Es wird Fehler geben und wir sollten die Menschen, wenn wir ehrlich sind, darauf vorbereiten, dass es nie eine 100% fehlerfreie Welt geben kann. Das ist die Frage, ob wir die überhaupt fehlerfrei haben wollen. Weil dann ist nämlich gar nichts Menschliches mehr da. Also das ist zudem ein Fall, ein tödlicher Unfall, Tesla und der Technik wird abgeschworen, mehr oder weniger. Ist für mich das Kind mit dem Bade auszuschütten. Natürlich müssen wir lernen, was ist hier falsch interpretiert worden. Aber es sollte nicht dazu führen, dass wir eine ganze Technologie attackieren.

Erik Pfannmöller: Es gibt ja auch viele Menschen, die selbst falsche Entscheidungen treffen, zum Beispiel Auto zu fahren oder übermüdet Auto zu fahren oder keine Pause zu machen oder das Handy in die Hand zu nehmen. Menschen machen ja auch Fehler.

Ralf Kreutzer : Genau deswegen dürfen wir an Technologien nicht höhere Anforderungen stellen oder Anforderungen, die nicht erfüllbar sind. Hundertprozentige Sicherheit gibt es nirgends. Gibt es auch nicht mit Technologie, egal mit KI, auch in 100 Jahren wird es hundertprozentige Sicherheit aus meiner Sicht nicht geben. Was du vorhin auch noch angesprochen hattest, war die Frage, wenn doch mehr Männer als Frauen straffällig werden. Oder ich kann ein anderes Beispiel nehmen, wenn mehr junge Männer ihre Schulden nicht zurückzahlen, ihre Kredite nicht zurückzahlen, dann ist es keine Verzerrung der Realität, dann ist es eine Tatsache. Und wir müssen auch Tatsachen ins Auge fassen, die gefährlichste Zielgruppe für Kreditvergabe sind junge Männer. Wenn die da noch häufiger umgezogen sind, kein festen Wohnsitz, dann ist es relativ schwierig, hier einen Kredit zu bekommen, weil eben die Ausfallrisiken dort massiv sind. Deswegen ist auch das Thema Mikrokredite in Indien primär an Frauen gegangen und nicht an Männern, weil Frauen statistisch gesehen mit Geld besser umgehen können als Männer. Also das ist kein Bias, das ist ein Fakt. Und das ist natürlich so schön zu unterscheiden, wann sprechen wir über Fakten und wann diskriminieren wir. Nur wenn wir das tatsächlich verhalten, was eben junge Männer an den Tag legen, wenn wir das unserer Kreditentscheidung zugrunde legen, dann diskriminieren wir nicht aus meiner Sicht, sondern dann analysieren wir und erkennen wir die Realität und handeln danach. Und vergeben eben Kredite mit mehr Fingerspitzengefühl oder zu schlechteren Konditionen, weil das Ausfallrisiko einfach größer ist. Und auch das ist etwas, was wir erkennen müssen. Und was wir ganz deutlich so sagen müssen, ja, das Auswahlrisiko ist höher und deswegen verlangen wir hier andere Konditionen.

Erik Pfannmöller: Interessanterweise tun das ja auch Menschen. Das heißt, wenn jetzt ein Sachbearbeiter in einem Kreditgespräch gegenüber sitzt, einem jungen Mann, dann sollte der ja auch wiederum Regeln von seiner Firma bekommen, aber auch ein Gefühl dafür entwickeln, wer vielleicht ein verheirateter Mann mittleren Alters mit Kindern, dass der der eher kreditwürdig und stetig ist als ein junger Mensch. Das heißt, auch Menschen haben ja diese Blackbox in sich drin, wo man nicht mal gar nicht erklären kann, warum sie diese Entscheidung treffen. Ich denke auch an das Thema Vorstellungsgespräche, wo man versucht, seine Argumente runterzuschreiben, aber es manchmal sehr schwierig ist, überhaupt festzuhalten. Und auch Menschen besitzen eine Blackbox und wir vertrauen auf die Entscheidung von Menschen in gewisser Art und Weise.

Ralf Kreutzer : Wobei wir, wenn wir richtig gut sind, eben nicht unserem Minderheitsaktionären, unserem Gehirn vertrauen, sondern dem Hauptaktionär, unserem Bauchgefühl. Und da ist noch mehr Blackbox. Und diese Blackbox, und das ist wirklich ein schöner Vergleich, den du herstellst, ist eigentlich genauso wie eine KI in der Lage, eine Vielzahl von Informationen in einer Bruchteil- von Sekunden zu verarbeiten, viel mehr als das, worauf wir uns so viel einbilden auf unser Gehirn. Und da sagt der Bauch schon, es kommt jemand um die Ecke und sagt, oh, schwierig. Und im guten Bewerbungsgespräch versuchen wir dann, Argumente zu finden, dass das doch ein guter ist. Ein schlechter Interviewer sucht die Argumente, um seine Bauchentscheidung zu verifizieren. Ein guter Bewerbungsführende, der versucht, die Gegenargumente rauszufinden, um eine Person wieder aus der Ecke rauszuführen, wo man ihn vielleicht reingestellt hat. Aber das ist genau eine Blackbox. Das ist unsere Intuition, die uns ganz viel sagt. Und ich bin so ehrlich zu sagen, dass meine intuitiven Entscheidungen im Leben meistens die richtig guten waren. Und ich hinterher oft versucht habe, dann zu rationalisieren, warum dieser Hauskauf der beste war, was auch immer. Aber ganz wichtige Entscheidung, ganz gute Entscheidung verlassen wir auch unserem Hauptaktionär. Und das ist unsere Intuition, wo wir auch nicht genau wissen, ist es ein bestimmter Gesichtsausdruck, der uns an was erinnert? Ist es eine bestimmte Kleidung? Ist es der Farbklang der Stimme? Was auch immer. Aber ganz häufig verlassen wir uns darauf. Und ich werde nie vergessen, als ich noch Student war in Mannheim, hatte die Werbenverkaufung so schöne Headline, die Manager haben die Bauchsprache verlernt. Und das ist über 30 Jahre her und ich habe gedacht, ja, die Bauchsprache ist etwas, was wir alle haben, worauf wir vielleicht immer häufiger auch mal mit vertrauen sollten, nicht alleine. Und die Herausforderung ist, wird es uns je gelingen, so etwas wie eine General Artificial Intelligence zu erlangen, wo auch so eine Bauchsprache denn vorkommt? Ich bin sehr skeptisch. Weil alle vorhersagen, wann es möglich sein wird, durch KI tatsächlich die menschliche Intelligenz nachzubilden, haben inzwischen keine Jahreszahl mehr, weil man das, was wir in unserem Oberstübchen an Vernetzung haben, bisher noch zu einem Bruchteil nur erkundet ist. Und es gibt Hoffnung zu sagen, lasst uns doch zwei Intelligenzen zusammenführen, die künstlichen und die menschlichen, um dann zu besseren Entscheidungen zu kommen. Und da gibt es einen schönen Spruch, den ich immer wieder gerne zitiere. Wie sollen wir Marktforschung nutzen? Nicht so wie der Betrunkene den Laternenpfahl, um sich daran festzuhalten, sondern um uns erleuchten zu lassen. Und wenn uns KI hilft, uns erleuchten zu lassen, zu besseren Entscheidungen zu kommen, vielleicht Denkanstöße nochmal etwas zu hinterfragen, dann sind wir auf einem guten Weg. und dann ist es eine Partnerschaft von KI und menschlicher Intelligenz, nicht eine, ich sage es mal ganz bewusst, dumme Substitution von menschlicher Intelligenz durch eine künstliche Intelligenz, die wir in der Tiefe immer weniger verstehen werden.

Erik Pfannmöller: Das finde ich sehr schön formuliert von dir. Ich bin schon kurz davor sozusagen zu sagen, danke für das tolle Gespräch. Aber ich würde noch gerne auf das Thema die KI als die vierte industrielle Revolution eingehen und wie du die Einschätzung von KI und dieses Vertrauen, wir sprechen ja gerade über was ganz Grundmenschliches, nämlich wie wir das uns verändern. Und vor ein paar Jahren haben wir vielleicht noch nicht vertraut bei der Navigation, aktuell vertrauen wir. Vor ein paar Jahren gab es noch keine Selbstfahnder Autos, auch nicht in vielen Jahren wird es das geben. Wenn man so ein bisschen in die Zukunft schaut, glaubst du, wir müssen mehr vertrauen oder glaubst du, wir müssen mehr Ergebnisse sehen?

Ralf Kreutzer : Ich würde mich freuen, wenn wir in der Lage wären, etwas umzusetzen, was ich in China sehe. Die sprechen immer von Technology as a Friend. Und wir in Deutschland sehen aus meiner Sicht ganz häufig Technology as an Enemy. Das gilt es erstmal zu bekämpfen, zu unterdrücken oder im Bereich KI erstmal eine Ethikkommission aufzubauen, um bestimmte Regeln zu definieren, bevor wir überhaupt mal anfangen, uns mit einer Technologie auseinanderzusetzen. Ich würde mich freuen, wenn wir dazu kämen, tatsächlich die Chancen und Risiken einer neuen Technologie gleichzeitig zu sehen. Um zu erkennen, jawohl, KI hat auch ihre Schattenseiten. Über viele davon haben wir schon gesprochen. Es wird zur Fehlentscheidung kommen, ja. Aber lasst uns auch doch bitte darauf achten, was wir damit besser machen können. Wofür vielleicht zu besseren Entscheidungen kommen, zu schnellen Entscheidungen, wofür vielleicht auch bestimmte Aufgabenfelder, die bisher sehr stupide abzuarbeiten sind, durch KI substituieren können. Das heißt, für mich geht es darum, einfach das Radar sehr weit aufzumachen und auf Chancen und Risiken gleichzeitig zu blicken. Ich bin keiner, der die Welt rosarot sieht, weil sie ist nicht rosarot. Ich bin aber auch keiner, der die Welt nur schwarz sieht, weil sie ist nicht nur schwarz. Auch bei I können wir sagen, 50 Shades of KI, grey. Da gibt es ganz viel dazwischen. Und lasst uns doch das alles anschauen. Aber bitte nicht mit einem großen Holzhammer, so wie er ausgepackt worden ist, als Herr Spahn gesagt hat, ob wir nicht anonymisierte Gesundheitsdaten zur Verfügung stellen können für Trainingszwecke. Ich habe gedacht, super Idee, aber ich wusste gleich, morgen kommt der Holzhammer und der kam von allen Seiten. Man könnte ja vielleicht unter Umständen doch irgendwas nachvollziehen. Da sage ich ja. Das wird passieren. Da wird vielleicht auch das eine oder andere identifiziert werden können, was wir nicht wollen. Aber wenn wir vor lauter Gläubigkeit in eine hundertprozentige Datensicherheit darauf verzichten, wichtige Entwicklungsschritte der KI in Deutschland und Europa mit nachzuvollziehen, dann werden wir uns hinten anstellen müssen bei denjenigen, die viel rigoroser unterwegs sind, viel rigoroser, als ich es gern möchte. Ich möchte nicht diese inflationäre Datennutzung à la China haben, aber ich möchte auch nicht bei jedem Schritt, den man macht, die Datenschutzgrundverordnung im Hintergrund sehen und sagen, können wir nicht, dürfen wir nicht, geht nicht. Es gibt ja in der Datenschutzgrundverordnung den wunderbaren Satz, Verbot mit Erlaubnisvorbehalt. Oder das ist die Leitidee dafür. Das heißt, wenn wir uns Erlaubnisse holen, dann dürfen wir manches machen. Und im Bereich Maschinendaten, da gibt es keine personenbezogenen Daten, können wir relativ viel machen, wenn wir Maschinendaten auswerten und, und, und. Und da ist ja Deutschland auch ziemlich gut. Nicht umsonst ist der Begriff Industrie 4.0 ja in Deutschland geprägt worden, dass wir da auf jeden Fall ganz große Einsatzfelder sehen. Weil wenn wir unseren Maschinenbau mit künstlicher Intelligenz, mit Internet of Everything, mit KI zusammenführen, dann können wir da auch vorne im Spiel mit dabei sein. Bei personenbezogenen Daten haben wir aufgrund der Datenschutz-Grundverordnung aus meiner Sicht einen echten Wettbewerbsnachteil. Und hier könnte dann die Gesetzgebung dafür sorgen oder die Exekutive, dass es eben dazu motiviert, Datenpools aufzubauen, auf die Unternehmen zugreifen können, vielleicht auch länderübergreifend, weil ich sehe ja nicht Deutschland im Mittelpunkt, ich sehe Europa im Mittelpunkt, dass wir unsere Position aufbauen im KI-Wettlauf nicht verteidigen, weil es gibt noch nichts zu verteidigen, weil wir noch nichts groß aufgebaut haben, aber dass wir da ein signifikanter Player sind oder werden, weil ansonsten haben wir eben nicht mehr so viele Ressourcen, unsere Kernressourcen stecken in den Köpfen stecken in der Ausbildung, stecken auch in solchen Systemen. Und da dürfen wir uns nicht die Butter vom Brot nehmen lassen. Wir haben das Brot in der Hand, aber so viel Butter haben wir momentan noch nicht aufgetragen. Kann man uns noch nicht so viel wegnehmen. Aber wir sollten gucken, dass wir da reichlich Butter drauf schmieren und dann auch gerne noch schön andere Beilagen, je nachdem, ob man Vegetarier ist oder nicht, kann man unterschiedliche Sachen drauflegen. Aber das müssen wir machen und zwar schneller als jetzt.

Erik Pfannmöller: Und auch noch ein bisschen mehr Vertrauen auf die algorithmische Blackbox. Denn wir haben in dem Podcast gelernt, es gibt nicht nur Schwarz, es gibt nicht nur Weiß. KI kann einfache Entscheidungen jetzt schon treffen und wir vertrauen bereits im heutigen Leben schon darauf. Aber bei schwierigen oder schwierigeren Entscheidungen ist es nicht unbedingt sinnvoll, nur auf die KI zu vertrauen. Du hast vom Tandem-Modus gesprochen, über den wir sozusagen zumindest in den nächsten Jahren ein bisschen irgendwann zur Automation kommen werden. Und hast auch ganz klar angemahnt, dass wir in Deutschland hinten dran sind und uns auch offener dem Thema gegenüber bestimmen. Die Technologie, vor allem auch KI, ist unser Freund, nicht unser Feind. Man muss beide Seiten sehen. In diesem Sinne danke, Ralf Kreuzer, für das tolle Gespräch zum Thema KI und die algorithmische Blackbox.

Ralf Kreutzer : Danke dir auch.