Dieses Transkript wurde maschinell erstellt. Wenn dir ein Fehler auffällt, schreib uns gerne zu diesem unter redaktion@digitalkompakt.de.
Erik Pfannmöller: Hallo und herzlich willkommen zu einem neuen AI-Unplugged-Podcast von Digital Kompakt. Kurzer Disclaimer an dieser Stelle, wie alle in der aktuellen Zeit sind wir auch im Homeoffice und das ist eine Remote-Aufnahme. Falls die Audioqualität nicht perfekt ist, bitte kurz entschuldigen. Wie immer, euer Moderator heute bin ich, Erik Pfannmöller, ehemaliger Kanu-Weltmeister, dreifacher Familienvater und Gründer von SolveMate, einer KI-basierten Plattform für eine verbesserte Service-Experience. Unsere Chatbots ermöglichen es, dass Endkunden ihre Serviceanfragen im Handumdrehen und ohne menschliche Serviceagenten lösen können. Wie immer bei AI Unplugged erklären wir Alltagsthemen rund um das Thema KI einfach und für jedermann verständlich. Wir besprechen gesellschaftliche Umwälzungen durch KI, aber auch neueste KI-Trends. Heute geht es bei dem Thema AI Unplugged um das Thema KI und Führungsethik. In Folge 14 hatten wir schon einmal das Thema algorithmische Blackbox beleuchtet und gestreift, dass es auch ethische Herausforderungen gibt, wenn man über KI und Algorithmen spricht. Heute wollen wir beleuchten, was KI mit Ethik zu tun hat und wie KI Management verändert und vielleicht auch sogar Führung beeinflussen kann. Ich freue mich dazu, heute Professor Andreas Suchanek hier zu haben. Er ist Inhaber des Dr. Werner-Jagdstedt-Lehrstuhls für Wirtschafts- und Unternehmensethik an der Handelshochschule Leipzig und Vorstandsmitglied des Wittenberg-Zentrums für globale Ethik. Für mich ist es heute eine ganz besondere Folge, denn vor über zehn Jahren saß ich selbst in seiner Vorlesung an der Handelshochschule Leipzig. Ich bin selbst Alumni von der HHL. Und als unternehmerische Hochschule und selbst als Unternehmer muss ich sagen, das war damals eine sehr tolle Entscheidung. Und ich bin sehr froh und freue mich, dich, Andreas, heute hier im Podcast begrüßen zu dürfen. Vielleicht stellst du dich erst mal selbst vor. Herzlich willkommen.
Andreas Suchanek: Herzlichen Dank, Erik. Ja, auch ich freue mich sehr, dass ich dich wiedersehen kann, dass wir die Gelegenheit haben, hier zu sprechen. Zum einen einfach, weil es schön ist, wieder etwas zusammenzumachen. Es ist ja nicht das erste Mal nach deiner Zeit an der HHL, die ich sehr gut in Erinnerung habe. Wir haben ja auch schon zusammen ein Projekt gemacht. Und jetzt wollen wir sprechen über ein Thema, das mich natürlich seit einiger Zeit sehr umtreibt. Als jemand, der aus der Volkswirtschaftslehre ursprünglich kommt, vom Studium her, dann aber schon sehr früh sich auf das Thema Ethik eingeschossen hat, großes Glück hatte, dass ich einen der großen Namen, Karl Hohmann, der Wirtschaftsethik als meinen akademischen Lehrer hatte. Und jetzt nach über 30 Jahren des Forschens, Lehrens, Nachdenkens, aber natürlich auch Erfahrens, in diesem Bereich doch sehe, das ist ein auch gerade im Moment wieder hochrelevantes Thema. Und wenn ich sage auch gerade im Moment wieder, ist natürlich diese Entwicklung, die wir durch die Digitalisierung sehen, ein ganz wesentlicher Faktor. Tatsache, dass wir mit der künstlichen Intelligenz, mit maschinellem Lernen hier heute Möglichkeiten haben, die unser Leben weitgehend beeinflussen, führt natürlich auch zu ethischen Fragestellungen, sei es in positiver Hinsicht, wo können wir tatsächlich das Leben verbessern. Das ist ja immer die Frage der Ethik. Aber ebenso eine Frage der Ethik ist es, wo können wir zusehen, dass wir Schädigungen, dass wir gegenseitige Verletzungen, dass wir Dinge, die wir nicht wollen, dass wir Dinge, die wir später bereuen würden, dass wir die versuchen zu vermeiden oder zumindest so weit in den Griff zu kriegen, dass wir es akzeptieren können. Und das hat viel mit KI auch zu tun.
Erik Pfannmöller: Das ist gut. Bevor wir konkret in Beispiele von KI und relevanten technologischen Situationen kommen, kurzer Sidekick. Wie geht es an der Handelshochschule mit dem digitalen Lernen? Habt ihr das gut umstellen können? Wie läuft der Betrieb?
Andreas Suchanek: Ja, das läuft in der Tat erstaunlich gut. Ich hätte das selber nicht gedacht, wenn man mich vor einem halben Jahr oder länger noch gefragt hätte, kann man den Kurs Business Ethics lernen. Auch auf Englisch?
Erik Pfannmöller: Auf Englisch sowieso.
Andreas Suchanek: Nein, kann man das auch in Online-Form machen? Hätte ich mich sehr zurückhaltend, wenn nicht gar ablehnend gezeigt. Denn solche Kurse leben davon, dass man einen aktiven Austausch hat, dass wir uns gegenseitig unterbrechen können und sprechen können, wenn ein Gedanken gerade kommt, dass wir uns direkt sehen. Da ist durchaus auch Emotion mit dem Spiel. Und da hätte ich gesagt, das kriegt man online gar nicht so gut hin. Jetzt mussten wir in der Corona-Krise. Und ich glaube, es war eine tolle Entscheidung unseres Rektors, Stefan Stubner, sehr früh zu sagen, wir stellen komplett auf online um. Das war eine, wenn man so will, unternehmerische Entscheidung.
Erik Pfannmöller: Stefan ist ja selbst ehemaliger Unternehmer als Leiter, nicht Chef der Handelshochschule. Rektor. Rektor. Ich komme ja aus der Geschäftswelt, ja.
Andreas Suchanek: Und das war, wie gesagt, eine durchaus auch mit Risiken behaftete Entscheidung, denn wir haben auch erlebt, mit Recht, dass Studenten erstmal nicht sehr glücklich damit waren. Auf der anderen Seite gab es natürlich ein wärenstarkes Argument, nämlich zu sagen, wir müssen sozusagen Nicht nur uns selber schützen vor möglichen Ansteckungen, sondern wir müssen auch sicherstellen, dass wir nicht zum, wie es ja manchmal heißt, Superspreader werden. Also dass wir dann möglicherweise irgendwo einfangen in Präsenzveranstaltungen und dann übertragen zu anderen. So, das heißt, wir haben sehr früh und sehr schnell lernen müssen, und zwar alle. Und das zeigt für mich den tollen Teamgeist an der HHL, bei allen Einschränkungen, die man immer in Organisationen hat, aber dass alle sich bereit erklärt haben, intensiv und schnell sich einzuarbeiten in die verschiedenen Techniken, die wir brauchten, die digitalen Möglichkeiten. Und die zu nutzen. Und ich kann nur sagen, das scheint uns gut gelungen zu sein. Denn der Zuspruch von außen bis hin zur Bewerbernachfrage läuft sehr gut. Und insofern sind wir jetzt tatsächlich mittendrin in der Umstellung, die bis hineinragt in die Lehre und Forschung. Wo wir versuchen, das auch gleich zu vertiefen. Wir haben jetzt erfreulicherweise gerade ein Digital Lab. beziehungsweise auch an Digital Space unterstützt bekommen und sind wirklich intensiv dabei, das umzustellen.
Erik Pfannmöller: Das ist spannend. Die Klassen in der Handelshochschule sind ja recht klein und ich selbst war schon in einer virtuellen Vorlesung mit dem Rektor Stefan Stubner und ich kann sagen, das hat gut funktioniert. Ich bin sehr gespannt, wie das neue normal an Universitäten und auch an der Handelshochschule Leipzig ist. Heute wollten wir aber nicht über das Thema Corona-Krise sprechen, sondern über das Thema KI und Ethik. Was sind denn Beispiele ethischer KI-Situationen? Wie würdest du das einschätzen?
Andreas Suchanek: Ja, ich glaube, wir erleben in immer mehr Bereichen, dass die KI gewissermaßen vordringt. Das wir sehen, es fängt an mit dem Thema, das mittlerweile, glaube ich, schon fast durch ist, selbstfahrende Autos. Das heißt, dass eine KI eingesetzt wird in die Steuerung eines Autos, aber so, dass es tatsächlich kein Fahren mehr braucht, sondern selbstfahrend. die künstliche Intelligenz selber übernimmt. und das heißt erkennen, wie ist der Kontext des Fahrens, welche Art zu fahren ist angemessen und so weiter und so fort. Und das ist natürlich schon ein sehr weitgehender und auch sehr folgenreicher Einsatz. Es gibt aber ganz viele andere Bereiche. Ich nenne jetzt nur mal exemplarisch einige wenige. Das Gesundheitssystem ist eines, das dass wir offensichtlich enorm davon profitieren könnte, dass wir nicht nur eine Unmenge von Daten, Stichwort Big Data, gewinnen und verarbeiten können, sondern dass diese Daten auch verarbeitet werden von Algorithmen, sodass diese Algorithmen vorselektieren können und auch Vorhersagen machen können, weil das ist ja entscheidend für KI, ein entscheidendes Kennzeichen. das Vorhersagen besser möglich werden.
Erik Pfannmöller: Das ist ja auch spannend, an der Stelle darüber nachzudenken, was eigentlich passiert, wenn die KI Entscheidungen trifft, wie zum Beispiel Röntgenbilder analysiert und sagt, positiv oder negativ kann ja die KI auch sagen, es ist kein Krebs da, obwohl vielleicht einer wäre, was eine Art Schädigung wäre. Oder auch, wenn man KI-gestützte Triage macht, wie aktuell in der Corona-Krise gab es ja ganz moralisch wichtige Entscheidungen, wer beatmet wird und wer nicht beatmet wird. Eigentlich ist ja an faktisch jeder Entscheidung, auch wenn ich zum Beispiel ein Richter bin und man vielleicht KI-gestützte Entscheidungen treffen könnte, ist es nicht so, dass bei jeder Entscheidung, die eine gewisse Tragweite hat, auch eine Schädigung vorherrschen kann?
Andreas Suchanek: Das ist genau der Punkt, weshalb dieses Thema Ethik und KI so unauflöslich zusammenhängt. Du hast es schon gesagt, nicht nur im Gesundheitswesen, in der Kriminalitätsbekämpfung können wir KI einsetzen. Es wird gemacht. Wir können es einsetzen bei der Personalrecruiting. Wir können es einsetzen bei Versicherungen. Und überall geht es erstens darum, dass durch KI bessere Vorhersagen, jedenfalls im Prinzip, gemacht werden können. Aber dass zweitens dann darauf basierend Entscheidungen getroffen werden. Und die Entscheidungen selbst können unter Umständen von der KI getroffen werden. Und da kann es in der Tat häufig zu Fertigungen kommen, denn die KI kann möglicherweise zwar die Daten verarbeiten, aber das, was sie nicht als Daten hat, geht nicht ein. Und da kann es schnell zu Vernachlässigungen kommen. Ich bringe mal ein Beispiel. Personalrecruiting, Personalentscheidungen. Da hat man vielleicht 20.000 Bewerbungen auf einem hochattraktiven Platz. Das als Mensch zu machen, ist sehr, sehr mühsam. Das als KI zu machen, könnte enorme Effizienz- und Zeitgewinnsteigerungen bringen. Aber wonach wählt die KI aus? Hat sie auch im Blick und kann man das überhaupt als Daten erfassen, dass jemand zum Beispiel in eine Unternehmenskultur nicht gut reinpasst. Das, was erfahrene Personaler sofort relativ schnell erkennen können, im Interview spätestens. Und das ist, glaube ich, eine der ganz wesentlichen spannenden Fragen, zu schauen, nicht nur, wo sind die Vorteile, sondern auch, wo sind die Nachteile und wie können wir damit umgehen.
Erik Pfannmöller: An der Stelle einen kurzen Sidekick für den interessierten Hörer unserer Reihe. Wir haben schon ganz am Anfang vor vielen Folgen über das Thema Confusion Metrics gesprochen und haben gesagt, dass es True Positives, also es Positive und Negative gibt und auch auch Fehler der Algorithmus macht. Und zwar kann ich fälschlicherweise richtig liegen oder fälschlicherweise falsch liegen. Und dieses Falschliegen kann induziert werden, das hatten wir bei der Folge über neuronale Netze, durch zum Beispiel Bias, also Voreingenommenheiten in den Daten, aber auch Voreingenommenheiten in der Art und Weise, wie der Algorithmus die Daten verarbeitet. Und das führt ja zum Schluss dazu, dass der Algorithmus möglicherweise auch durch falsche Inputdaten falsche Entscheidungen trifft. Das ist klar sozusagen die Basis und wir wollen heute über die ethische Implikation, über die Abwägung des Menschen mit der Entscheidung oder mit dem Output der KI sprechen.
Andreas Suchanek: Wenn du erlaubst, würde ich hier gerne nochmal einhaken, Erik, und sagen, es geht ja noch weiter. Es geht ja auch darum zu schauen, erstens mal, welche Daten werden überhaupt eingespeist? Finden da möglicherweise schon Manipulationen statt? Denn das kann man sich natürlich vorstellen, Wenn ich derjenige bin, der in einem Unternehmen dafür zuständig ist, die KI zu verwalten und irgendwer wird das machen. Ich gehe jetzt noch nicht von diesem fernen und hoffentlich nie wirklich aufregenden Szenario auf, wo wir alle von der KI beherrscht werden. Das ist ja etwas, was einige als sozusagen schlimmstes Szenario an die Wand gemalt haben. Das will ich mal beiseite lassen.
Erik Pfannmöller: Das ist noch 50 Jahre weg oder auf jeden Fall sehr weit.
Andreas Suchanek: Das heißt, solange das nicht der Fall ist, sind es immer noch Menschen, die die KI füttern mit Daten. Und schon da kann es so sein, dass das wissentlich oder unwissentlich mit verfehlten Daten passiert. Zum Beispiel gibt es die Analyse, dass es bereits bei den Biases, die wir Menschen haben in der Personalentscheidung, Und wir übertragen das als Programmiererin oder Programmierer in einen Algorithmus, dass das zum Teil gespiegelt wird vom Algorithmus. Und schon da kommen ethische Fragen. Weitere ethische Fragen kommen dann natürlich bei der Anwendung der KI. Wir haben den Cambridge Analytica Skandal gehabt, wo es darum ging, dass eine Unmenge von Daten verarbeitet worden ist bis hin zur genauen Wähleranalyse mit Folgen. Und zwar sehr weitreichende Folgen. Also ich will jetzt nicht so weit gehen, dass wir sagen, vielleicht hätten wir weniger Covid-19-Tote in den USA, wenn das nicht passiert wäre. Aber auf jeden Fall gibt es sowohl bei dem Input als auch beim Output der Daten allein schon zahlreiche Herausforderungen, die ethischer Natur sind.
Erik Pfannmöller: Warum ist besonders in der Führungsethik und in der Managementethik das besonders relevant, auch ethische und moralische Fragestellungen zu betrachten?
Andreas Suchanek: Für mich hängt das mittlerweile ganz eng mit diesem schon genannten Schadensprinzip zusammen oder eben eigentlich dem Nichtschädigungsgebot. Es ist ja nicht immer so klar, was wir genau meinen, wenn wir von Ethik sprechen. Irgendwie hat das einen sehr idealistischen Touch. und vielleicht kommt man dann noch darauf, weil das Glück des Einzelnen, Das ist nämlich schon bei Aristoteles angelegt, diese Idee, es geht ums Gelingende, ums glückliche Leben geht, um die bessere Welt und so weiter. Und dann fällt einem vielleicht noch Verantwortung ein als Stichwort der Ethik. Und in der Tat, da sind wir dann schon sehr nah bei Führungsethik. Und in meinen Jahrzehnten lang kann ich mittlerweile sagen, versuchen zu klären, worum es in Verantwortung geht, bin ich mittlerweile auf zwei Schlüsselbegriffe gestoßen. Das eine ist Vertrauen. Und gerade in unseren Zeiten erleben wir, gerade auch bei digitalen Techniken, können wir den Techniken vertrauen, können wir den Menschen vertrauen, die damit umgehen, können wir den Unternehmen vertrauen, die das nutzen. Denn wir wissen, es gibt viele Missbrauchsmöglichkeiten oder auch einfach Fehler, die passieren können. Da kommt der zweite Punkt, nämlich Verantwortung hat nicht nur mit Vertrauen sehr viel zu tun, sondern beides hat sehr viel mit Schädigungen und der Vermeidung von Schädigungen zu tun. Denn wenn wir uns unverantwortliches Verhalten anschauen, dann werden wir feststellen, es hat immer damit zu tun, dass Menschen geschädigt werden. Unverantwortliches Handeln in Form des Betrugs, der Korruption, der Verletzung von Menschenrechten, des Übertischziehens von Kunden, des fehlenden Qualitätsmanagements, des fehlenden Sicherheitsmanagements. Immer geht es darum, dass Menschen geschädigt werden. Unverantwortlichkeit ist praktisch unangemessene Schädigung von Menschen. Und das wiederum hat viel mit Vertrauen zu tun, weil wenn ich jemandem vertraue, ob das ein Mensch oder ein Unternehmen und vielleicht sogar einer KI ist, dann mache ich mich von ihr abhängig oder von dem Unternehmen. Und dieses Abhängigmachen geht einher mit dem Vertrauen, mit der Erwartung, nicht geschältig zu werden. Das ist der Kern. Und deswegen ist es für Führung so zentral, genau diese Zusammenhänge klar zu kriegen und bei allen technischen Fragen und bei allen klassischen Führungsthemen, die ja meist ausgerichtet sind, effizient Ziele zu ersetzen und effizient zu erreichen.
Erik Pfannmöller: immer auch mitlaufen zu lassen, wie kann ich vermeiden, dass unangemessene Schädigungen Bevor wir sozusagen gleich vielleicht mal darauf eingehen können, wie eigentlich Manager Entscheidungen treffen, vielleicht ein kurzer Sidekick zum Thema goldene Regel. Ich sage meinen Kindern immer, handle nur nach der Maxime, zu der du gleich wollen kannst, dass hier ein allgemeines Gesetz werde. Das sage ich natürlich nicht so, wie das Immanuel Kant zitiert hat oder aufgeschrieben hat. Aber ich sage immer, mache nur das, wie du auch selbst behandelt werden willst. Und wenn jeder sich so verhält, Weil man sich ja nicht selbst schädigen will. Auch das, was du gesagt hast, jeder will sich selbst glücklich machen. Hängt dieses Nichtschädigungsprinzip mit der Goldenen Regel zusammen?
Andreas Suchanek: Eigentlich ist es, würde ich sagen, der wichtigste Kern der Goldenen Regel. Und ich freue mich sehr, dass du sie genannt hast, weil für mich als Ethiker ist es immens wichtig, auf Dinge zu rekurrieren und da anzuschließen und sie weiterzutragen. die allgemein in den vielen, vielen Geschichten, die wir Menschen gemacht haben in dem Umgang miteinander, die sich da immer mehr herauskristallisiert haben als einerseits unserem guten Leben förderlich und andererseits hilfreich, um Schaden, gegenseitigen Schaden zu vermeiden. Und da ist diese goldene Regel tatsächlich über alle Zeiten hinweg und über alle Kulturen hinweg wirklich faszinierend zu sehen. zu finden. Man kann ins alte Indien gehen, wo der Maha Parada, dem großen Werk des Hinduismus, schon steht. Dies ist die Summe der Pflicht. Tue selbst nicht anderen an, was dir Schmerzen bereiten würde, wenn es die angetan wäre. Und man kann ins alte Testament gehen, ins neue Testament. Man kann zu Philosophen, ob es die alten Griechen sind oder im Mittelalter oder im Moderne. Man wird immer wieder finden, dass diese goldene Regel, diese Logik der Reziprozität zu finden ist. Und Der essentielle Kern der Reziprozität ist tatsächlich das gegenseitige Nichtschädigen. Also da haben wir genau die Verbindung von diesem Nichtschädigungsprinzip und der Tatsache, dass wir Menschen nicht allein sind. Vielleicht eins noch hinzugefügt, Erik, du wirst dich erinnern, ich habe das Ganze ja dann versucht, weil ich ja von Hause aus Ökonom bin, mal eine ökonomische Sprache zu übersetzen und das Ganze auch typisch sozusagen im Geiste der BWL positiv formuliert. in folgende Formel gebracht, investiere in die Bedingungen der gesellschaftlichen Zusammenarbeit zum gegenseitigen Vorteil. Und das soll auch sehr positiv klingen, weil investiere hat etwas damit zu tun, was wir alle als Leute, die in der Wirtschaft tätig sind und das kennen, sehr gut kennen. Wir müssen investieren, damit wir künftige Erträge haben. Zweitens, diese Investitionen sind aber interessanterweise in der Ethik eher, wie soll ich sagen, negativer Art. Das heißt, es geht darum, bestimmte Dinge zu verhindern, nämlich genau die wechselseitigen Schädigungen. Und das ist gar nicht so einfach, aber immens wichtig zu verstehen, dass wenn ich versuche, Vorbeugen, zum Beispiel durch Compliance, durch Absicherungsmechanismen, zu vermeiden, dass du geschädigt wirst in unserem Geschäft, dann wirst du Vertrauen haben und mit mir zusammenarbeiten und das ist gut für uns beide. So funktioniert die Geschichte.
Erik Pfannmöller: Das finde ich eine echt richtig gute Zusammenfassung und das sozusagen von dem Forscher von der Uni, der sehr viel Erfahrung hat, hier für mich sozusagen als Unternehmer die Praxis. Ich habe die Goldene Regel auch schon mal in der Vorlesung bei dir gehört und sie hat es bis hin zu unserem Culture Deck, das ist sozusagen sowas wie eine Grundverfassung unserer Firma, wie wir uns behandeln wollen, geschafft. Da steht auch die Goldene Regel drin. Und ich sage immer zu den Kollegen, egal was passiert, wenn ein Kunde seine Rechnung nicht bezahlt, dann schick ihm keine Mahnung, sondern frag, warum er sie nicht bezahlt hat. Sondern stell dir immer vor, wie möchtest du behandelt werden? Und egal, ob das Mitarbeiter, andere Unternehmen, Supplier oder unser Vermieter ist oder auch nur die Firma, die uns hilft, unser Büro reinzuhalten, verhalte dich immer so, wie du selbst behandelt werden wollen würdest, weil nur dann, es ist interessant, dass du diesen Investitionsbegriff als Ökonom benutzt hast, wir investieren, in etwas Gutes, was in unserem Umfeld passiert, und dann wird auch etwas Gutes zu uns zurückkommen. Ich bin jetzt kein esoterischer Karma-Believer, aber ich erinnere mich, dass ich mich mal sehr gut zu einem Kollegen verhalten habe vor mehr als acht Jahren, den ich leider aus der Firma entlassen musste. Und acht Jahre später war er der Entscheider bei einer Firma zu einem großen Deal, den wir geclosed haben für einen neuen Kunden. Und das finde ich ganz spannend, dass sozusagen die Praxis und die Realität auch miteinander verwoben sind und dass es auch wirklich Sinn macht, was an Unis erforscht wird.
Andreas Suchanek: Erik, you made my day.
Erik Pfannmöller: Sehr schön. Das ist gut. Da freue ich mich. Wir sind aber noch nicht fertig mit unserem Gespräch. Du musst noch ein bisschen aus dem Nähkästchen plaudern.
Andreas Suchanek: Ja, also was ich vielleicht gleich an der Stelle anfügen kann, ist, das ist ja spannend bei der Ethik und zugleich zeigt das, dass es schwierig und wichtig ist. Es ist spannend bei der Ethik, dass sie ganz fast schon banal ist, wenn es darum geht, bestimmte Einsichten, eben wie diese put yourself in the shoes of the other, in die Rolle des anderen versetzen und auf diese Weise tatsächlich ein besseres Zusammenleben ermöglichen, bessere Geschäftsbeziehungen zu haben, bessere Teamarbeit zu haben. Aber es ist, das muss man eben betonen, eine Investition, die einem schon manchmal einiges abverlangt, ob das Zeit ist, ob das Geld ist, ob das Aufmerksamkeit ist. Und jetzt, wenn ich das verknüpfe mit der KI, dann stelle ich fest, dass diese Investition, im täglichen Umgang zum Teil sehr banalen und einfachen, wenngleich natürlich wichtigen Einsichten, plötzlich relativ schnell ziemlich komplex werden. Weil bei der KI haben wir es ja oft zu tun mit, ich sag mal, Blackboxes, die schwer nachzuvollziehen sind, wo vielleicht die Programmierer, die Experten, IT-Experten noch einiges wissen, aber wo es dann darum geht, sie einzusetzen in sozialen Beziehungen und dann wird es ganz schnell unübersichtlich. Und dann stellen sich natürlich diese alten Fragen, wie gehen wir miteinander um, wie können wir besser kooperieren, wie können wir unser Zusammenleben nachhaltiger, ich sage mal banal, erfreulicher gestalten. Und eben umgekehrt, wie können wir sicherstellen, dass wir uns nicht gegenseitig schädigen. Die werden dann relativ schnell komplex. Ich würde gerne mal ein Stichwort hier einschmeißen, das für mich da sehr spannend ist, nämlich die nicht intendierten Ideen. und unerwünschten Handlungsfolgen. Damit meine ich folgendes. Das ist ein ganz großes Thema der Sozialwissenschaften seit, ich könnte fast sagen, 200 Jahren. Nämlich, dass wir manchmal Dinge tun, die wir im guten Glauben tun, was Gutes zu tun, und dann kommt was Negatives bei raus. Ganz banales Beispiel. Es werden manchmal Mieten, Mietpreise gedeckelt mit dem Wunsch, dass diejenigen, die dringend Wohnungen brauchen, nicht viel Geld haben, sie sich auch leisten können, deswegen nicht zu hohe Mieten bezahlen müssen. Was ist denn die Folge? Die Folge kann sein, dass die Vermieter sich dann sagen, okay, dann vermiete ich erst gar nicht mehr. Oder sie sagen sich, gut, dann renoviere ich die Wohnung gar nicht mehr. Oder sie sagen sich, okay, dann kann ich jetzt nicht mehr mit dem Preis diskriminieren, sondern dann mache ich das über andere Dinge. Das heißt, unter Umständen bekommen genau die Menschen, die es brauchen, dann keine Wohnung mehr. Oder Sie kriegen sie zu ganz schlechten Bedingungen. Dann wird plötzlich eine Besenkammer als Einzimmerapartment und die Apfelsinenkiste als Schreibtisch verkauft. Oder man wird vorselektiert, wenn man dann drei Kinder mitbringt und womöglich einen Hund, ist man schon draußen. Und man wäre drin, wenn man die Möglichkeit hätte, etwas höhere Preise zu bezahlen. Ich will nicht damit sagen, dass es immer schlecht ist. Es gibt Beispiele, wo es gut läuft. Aber, und das ist mein Punkt, es gibt nicht intendierte Handlungsfolgen von intendierten guten Folgen, die man angestrebt hat. Und jetzt würde ich das gerne übertragen. einige Beispiele aus dem Feld KI und Digitalisierung. Ich fange mal mit wieder ein bisschen Banane an. Ich finde das gut.
Erik Pfannmöller: Ich sozusagen als Moderator, es ist immer meine Aufgabe, das zu übertragen und zurück zum roten Faden zu kommen, aber du machst das schon selbst, da brauche ich gar nichts mehr machen, du kannst einfach weiterreden.
Andreas Suchanek: Ich rede jetzt einfach weiter und du springst rein und dann gucken wir, wo uns das alles hinführt. Ich will ein Beispiel bringen, das erstmal relativ einfach ist, nämlich Laptop-Gebrauch. Laptops sind eine enorme Hilfe, die uns vernetzen mit der Welt, die uns viele Informationen zur Verfügung stellen. Und diejenigen, die sowohl den Hardware, aber vor allem, darum geht es ja hier vor allem, den Softwaregebrauch entwickelt haben, haben das oft mit den besten Intentionen getan. Zum Beispiel der Erfinder des Likes oder der Erfinder von Plattformen. Oder diejenigen, die daran mitgearbeitet haben, waren oft überzeugt davon, die Welt besser zu machen. Und das haben sie ja zum Teil auch. Aber was wir auch sehen, ist, dass auf diese Weise jede Menge unerwünschter Nebenfolgen passieren. Ob das jetzt Suchtverhalten ist, ob das Fehlinformationen ist, die ganzen Fake News und so weiter, Geschichten, die ganzen Verschwörungstheorien, können sich plötzlich ausbreiten, viel schlimmer als vorher. Das heißt, wir haben immer wieder auch nicht intendierte Folgen und das passiert natürlich auch bei Christen. KI.
Erik Pfannmöller: Und jetzt stehe ich genau vor der Herausforderung. Stell dir vor, ich bin Manager eines großen Netzwerks oder einer anderen großen Firma. Ich muss eine strategische Entscheidung führen und wir haben Tests gemacht, wir haben Zahlen analysiert. und ich muss mich entscheiden, führe ich den Like ein oder was anderes? Gehe ich in dieses Land oder nicht? Baue ich das, die große Fabrik in Brandenburg zum Bau von Elektroautos oder baue ich sie in der Ukraine jetzt? Nur um Beispiele zu machen. Das sind ja Management-Entscheidungen. Und da kommt die KI, man füttert ganz viele Daten rein, wir schauen mal in die Zukunft und dann sagt Tu das. Das ist meine Entscheidungsvorlage. Wie kann dann der Manager Entscheidungen treffen? Wonach sollte er handeln?
Andreas Suchanek: Ich könnte mich jetzt zurückerinnern an das Projekt, das wir mal zusammen gemacht haben, zusammen mit Studenten von der Handelshochschule Leipzig. Und du hast im Zuge dieses Projekts, als wir manche Diskussionen hatten, ein Wort gebraucht, das ich wunderbar fand und seitdem in meinen Augen. Sprachschatz übernommen habe, nämlich Sanity-Check. Und das ist ein tolles Wort, weil das, glaube ich, genau den Punkt dessen trifft, was du gefragt hast. Natürlich macht es total Sinn, wenn man die ganzen Informationen und dann eben auch nicht nur die Informationen, sondern auch die Verarbeitungsmöglichkeiten durch die KI nutzt. Und Entscheidungen, egal ob es um eine Einführung eines Produktes in einem anderen Land geht oder um ein besseres Lieferkettenmanagement oder sonst etwas, dass man das mit Hilfe von KI-Möglichkeiten versucht, besser zu gestalten, besser abzusichern, effizienter zu machen und so weiter und so fort. Bis hin eben zu Personalentscheidungen und anderem. Aber ich glaube, die wesentliche Rolle eines Managers und dann erst recht einer Führungskraft wird darin bestehen, dass sie diesen Sanity-Check durchführt. Das heißt, einfach sich die Situation anguckt und sozusagen vom Gutfeeling, vom Bauchgefühl her nochmal gegencheckt und sich da auch eine kritische Distanz bewahrt. Zu schauen, was könnte möglicherweise bei all diesen Daten vergessen worden sein. Also um ein banales Beispiel aus der Ethik zu bringen. Was nicht digitalisierbar ist, ist die Würde des Menschen. Ich kann sie auch nicht messen. Ich kann auch Respekt eigentlich nicht messen. Ich kann allenfalls versuchen zu messen, wie Menschen Respekt erleben, aber auch das ist nicht wirklich immer so verlässlich. Letztlich kann ich es nur erleben und kann bei den Menschen versuchen, einen zuzulassen. Verständnis zu erzeugen, wie wichtig es ist, das mit einfließen zu lassen. Also genau die goldene Regel in der Anwendung. Denn darum geht es ja bei der goldenen Regel. Und ich glaube, das ist das, wo wir Menschen nicht damit rechnen sollten, dass die KI das gut berechnen kann. Wo wir die Aufgabe und die Verantwortung bei uns belassen sollten, dass wir diesen Sanity-Check machen. Und das heißt, dass wir natürlich auch ein Stück weit immer verstehen müssen, worauf basiert die KI, welche Art von Daten verarbeitet sie, vielleicht sogar nach welchem Gesichtspunkt, jedenfalls wenn es um weitreichende wichtige Entscheidungen geht. Oder anders auch gefragt, wovon machen wir uns jetzt gerade abhängig, nämlich von der KI? Und wie können wir sicher sein, dass in diesen Entscheidungen die Dinge, die uns wichtig sind, und jetzt könnte ich eben wieder diese ganzen ethischen Dinge anführen, Fairness, Nachhaltigkeit, Verantwortung, Respekt, Integrität, dass die auch dabei zum Rechnen zu tragen kommen.
Erik Pfannmöller: Ich fand interessant, dass du das Wort kritische Distanz gerade benutzt hast. Nämlich sozusagen, wir hatten ja über das Thema Algorithm mit Blackbox, ja, man kann niemals ganz genau nachvollziehen, was passiert ist. Man muss sich das Ergebnis anschauen, dann diese Das Wort kritische Distanz finde ich eigentlich gut, dass man sagt, ich vertraue dem nicht blind, sondern wenn es eine weitreichende Entscheidung ist, und wir sprechen über Entscheidungen, die können weitreichend für eine Person, aber auch für tausende Personen sein. in einer großen Firma, muss ich als Manager den Sanity-Check machen, muss mir das anschauen, aber eben mit der Distanz, um nicht blind zu vertrauen. Und dann, zumindest ist es meine Einschätzung von Führung, ist ja die Entscheidung nur der kleine Teil, das ist ja die Spitze des Eisbergs. Vielmehr ist ja auch noch sozusagen Menschen zu führen, zu begeistern und auch Menschen für die neue Idee oder die Entscheidung zu gewinnen.
Andreas Suchanek: Da kann ich nur zustimmen. Ich hatte mal ein tolles Gespräch mit René Obermann, Chef von Telekom, kennt sich also wirklich gut aus in dem Bereich Digitalisierung. Und ein Gespräch über die Frage, können wir und müssen wir erwarten, dass irgendwann KI Führungsaufgaben übernimmt. Ich kann nur nicht ausschließen, dass das irgendwann passiert. Das weiß ich schlicht nicht. Aber ich würde vorschlagen. vorderhand bei der Position bleiben, dass es wahrscheinlich nicht so gut ist. Vielleicht gibt es in sehr klar umrissenen Aufgabenfeldern sehr sinnvolle Möglichkeiten, das weiß ich nicht. Aber eigentlich ist Führung, Führung von Menschen. Und wenn es darum geht, dass wir Menschen führen, dann ist es wichtig, dass wir zum Beispiel ein Verständnis der goldenen Regel haben. Also uns genau in die anderen reinversetzen können. Oder, was du gerade gesagt hast, diese kritische Distanz, diese Reflexionsfähigkeit aufnehmen können. Und das Ganze, was wir gerade tun, zum Beispiel nochmal in den großen Kontext, Stellen der grundlegenden ethischen Frage, was ist eigentlich wirklich wichtig im Leben? Und ehrlich gesagt, ich bezweifle jedenfalls vorderhand, dass eine KI diese Frage vernünftig stellen kann. Dass sie vernünftigerweise Selbstreflexion und Reflexion dessen, was ihr eigene Position in dieser Welt, in diesem Kontext und in diesem Zusammenschein mit anderen Menschen, bedeutet. Das aber zeichnet für mich gute Führung aus, selbst wenn die Führungskräfte gar nicht so darüber nachdenken können. Aber gute Führungskräfte machen das, dass sie sozusagen sich eben wieder in die Rolle des anderen versetzen, dass sie wissen um die Macht des Wortes, dass sie wissen um die Macht des Vorbilds, das sie vorleben. Und hier ist, glaube ich, tatsächlich Führungsethik sehr wichtig, wenn es darum geht, eine vernünftige Zusammenarbeit und einen Einsatz der KI zu zu planen und umzusetzen.
Erik Pfannmöller: Das ist spannend, weil am Ende brechen sich ja große Entscheidungen runter auf, also man sitzt an einem Tisch und man muss als Führungspersönlichkeit zum Schluss eine Entscheidung treffen, weil irgendjemand muss eine Entscheidung treffen und dann habe ich sozusagen, wir hatten im Vorgespräch über das Thema moralischen Kompass gesprochen und ein Kompass zeigt ja immer die Richtung an. Der sagt rechts oder links, der sagt Norden, Süden, Osten, Westen und zum Schluss geht es einfach in eine bestimmte Richtung. und dann muss man sich entscheiden, will ich rechts oder links gehen? Ich versuche das immer auf, gehe ich rechts oder links runter zu runterzubrechen? und dann, was würde ich tun, wenn ich mich moralisch korrekt verhalte, auch wenn das heißt, dass ich vielleicht investieren muss in eine langfristige Beziehung und das gleichzeitig sozusagen auch mit, ich muss eine Firma haben, die digital responsible ist, um sozusagen auch diese Entscheidungen, die von KI, von Algorithmen getroffen werden, ja, richtig zu unterstützen. Was mich auch zu dem Bereich Corporate Digital Responsibility bringt. Wie würdest du das Thema moralischen Kompass und Corporate Digital Responsibility miteinander verbinden? Wenn die überhaupt miteinander zu verbinden sind.
Andreas Suchanek: Ja, unbedingt. Ich würde sie sogar direkt miteinander verflochten sehen. Und vielleicht darf ich dann erstmal was zu diesem Thema ethischer Kompass sagen. Denn das ist ja zum einen ein Wort, das man immer öfter hört. Ich jedenfalls sehe, dass das etwa bei der Telekom von der Chief Compliance Officer Manuela Möckert benutzt wird in ihren Blogs oder auch, ich kenne sie ganz gut in dem, was sie erzählt. Es wird auch immer wieder mal in Texten benutzt, dass wir den moralischen Kompass brauchen und so weiter. Das heißt, offensichtlich gibt es derzeit einen relativ intensiven Bedarf an Orientierung und auch durchaus an ethischer und moralischer Orientierung. Und an dem Das Wittenberg-Zentrum für globale Ethik, du hattest es schon genannt, dass ich da Vorstandsmitglied bin, haben wir in einem wichtigen Jahr für Wittenberg, nämlich 2017, das war das Jahr des Reformationsjubiläums, 500 Jahre Reformation, 500 Jahre Thesenanschlag, da war ja unglaublich viel los in Wittenberg. Haben wir als Wittenberg Zentrum auch überlegt, was Versuche können wir beibringen und allbeisteuern zu diesem wichtigen Jahr. Und wir haben in dem Jahr mit vielen Führungskräften, mit Studierenden, mit Wissenschaftlern, mit anderen Menschen, haben wir einen ethischen Kompass entwickelt. Und den machen wir auch fruchtbar für genau diese Fragen, die wir hier gerade diskutieren. Ich will Ihnen ganz kurz versuchen vorzustellen. Und im Zentrum steht Do No Harm. Und dieses Do No Harm Prinzip, also das Nichtschädigungsprinzip, wird entwickelt. und sozusagen für Führungskräfte etwas operationalisierbar gemacht durch vier Elemente. Ich will nicht sagen vier Himmelsrichtungen, obwohl man es natürlich beim Kompass so deuten kann, aber es sind eigentlich vier zusammenhängende Elemente. Es fängt an mit Freiheit. Freiheit, die wir immer wollen und die wir nutzen können und wo uns Digitalisierung viele neue Freiheiten beschert hat. Und die Ausgangsfrage des Kompasses ist deswegen, wie können wir unsere Freiheit gebrauchen, ohne andere und auch uns selbst zu schädigen. Das ist der Ausgangspunkt. Freiheit, erstes Element. Einbettung. Ein bisschen komischer Begriff vielleicht, aber gemeint ist, zu verstehen, es geht ums Erkennen, es geht um die Einsicht. Meine Freiheit ist immer eingebettet, in Zeit, in sozialen Raum, letztlich in die Wirklichkeit. Und wenn ich das erkenne, sollte ich diese Analyse, das wäre der technische Begriff sozusagen, Diese Analyse durchführen, welche Schädigungen kann ich denn mit meinem Freiheitsgebrauch, die nicht intendierten Folgen bedinglichen Sprachen, verursachen. Das wäre das erste, das Erkennen. Das zweite Element, also Einbettung, Erkennen der möglichen Folgen. Und drittes Element, Respekt. Hier geht es um Werte, hier geht es um Haltung. Hier geht es darum, dass ich auch sowas wie eine Haltung entwickle und du weißt natürlich als Unternehmer, dass es eben auch ein Teil der Kultur sein muss, wenn ich diese Werte ernst nehme. Respekt sollte ein zentraler Wert sein, denn Respekt drückt aus die Haltung, ich will andere nicht schädigen und übrigens auch mich selbst nicht. Das ist Selbstrespekt, Selbstachtung. Das vierte Element schließlich ist, es ist gut, wenn man es erkennt, es ist gut, wenn man es will, sprich Respekt, Werte, aber man muss es auch umsetzen. Und das ist der vierte Punkt des Kompasses, nämlich die Selbstbegrenzung. Und zwar Selbstbegrenzung der eigenen Freiheit dort, wo sie Schaden verursacht. Und die Selbstbegrenzung kann dann natürlich auch wieder mit all den Möglichkeiten genauer analysiert werden. Und der Kreis schließt sich, führt also wieder zurück zur Freiheit, wenn ich erkenne, dass die Selbstbegrenzung, eigentlich eine Investition in meine künftige Freiheit, in künftige Kooperation ist. Das ist in aller Kürze der moralische oder der ethische Kompass. Was hat das mit CDR zu tun? CDR oder CDR, Corporate Digital Responsibility, ist ein rasch um sich greifendes Modewort, aber da steckt natürlich ein reales Problem dahinter. Welche Verantwortung haben Unternehmen, Corporates, in dieser digitalen Welt? Und sie haben natürlich Verantwortung, weil sie neue Freiheiten haben. Sie können jetzt alle möglichen technischen Dinge im KI- und Algorithmen und Datenverarbeitungsmöglichkeiten einsetzen. Das tun sie auch. Sie kaufen ja zum Teil enorm viel Daten oder versuchen sie abzugreifen durch unseren Internetgebrauch. Was machen sie damit? Und sie können es zu ganz guten, vorteilhaften, für uns nützlichen Dingen einsetzen. Und sie können es auch schädigend einsetzen. Und es ist ihre Verantwortung, darüber nachzudenken und den unangemessenen Schaden zu vermeiden. Und jetzt siehst du vermutlich, wo diese Dinge alle zusammenhängen. Es geht darum, diese Möglichkeiten, diese freiheitserweiternden Möglichkeiten durch KI, die so zu nutzen, dass wir sie verantwortlich gebrauchen. Und der ethische Kompass kann uns helfen, diesen Verantwortungsgebrauch besser zu verstehen und umzusetzen durch Erkennen, das war die Einbettung, durch die richtige Werthaltung, das war Respekt, und durch ein Verständnis der Umsetzung, das war Selbstbegrenzung.
Erik Pfannmöller: Typischerweise mache ich immer ein Schlusswort, Andreas, aber das war eine exzellente Zusammenfassung, wie KI mit Ethik und ethischen Entscheidungen zusammenhängt. Und an der Stelle würde ich einfach nur sagen, vielen Dank für das sehr informative, begeisternde Gespräch und ja, Dankeschön.