Algorithmic Bias: Wenn eine KI dich diskriminiert

19. Dezember 2022, mit Joel KaczmarekLunia Hara

Dieses Transkript wurde maschinell erstellt. Wenn dir ein Fehler auffällt, schreib uns gerne zu diesem unter redaktion@digitalkompakt.de.

Intro: Digital kompakt. Heute aus dem Bereich Führung mit deinem Moderator Joel Kaczmarek. Los geht's.

Joel Kaczmarek: Hallo Leute, mein Name ist Joel Kaczmarek. Ich bin der Geschäftsführer von Digital Kompakt und heute habe ich wieder die liebe Lunia Hara an meiner Seite von Diconium. Und mit Lunia rede ich ja regelmäßig darüber, wie empathische Führung gelingen kann. Wir versuchen auch zu sensibilisieren, dass Diskriminierung leider allerortens ein Thema ist. Und heute mein ganz feines Schmankerl, nämlich Diskriminierung durch KI. Also es geht um Algorithmic Bias, wenn Computer lernen zu diskriminieren und wie man ihnen das wieder aberzieht. Wir werden es auch noch ein bisschen weiter treiben, sicherlich in Themen wie Empathie oder auch Patriarchat, denn die liebe Kenza Ait Siabu von IBM hat ein sehr schönes Buch geschrieben, das nennt sich Unlearned Patriarchy. Könnt ihr euch schon mal auf eurer Amazon, Thalia, Hugendubeliste, wo auch immer ihr Bücher kauft, setzen und hat tagtäglich damit zu tun, Computern beizubringen, doch bitte nicht so diskriminierend zu sein. Und wie das gelingt, was für eine Technik dahinter steckt, warum das wichtig ist und noch einiges mehr ist heute unser Thema. Und that being said, ihr beiden, schön, dass ihr da seid.

Kenza Ait Si Abbou: Vielen Dank für die Einladung.

Lunia Hara: Hallo Joel, hallo. Kenza, schön, dass du da bist.

Joel Kaczmarek: Wie habt ihr euch denn beide eigentlich kennengelernt? Du hast ja sofort, als ich meinte, was können wir mit KI machen, gesagt, Kenza!

Kenza Ait Si Abbou: Sehr gut, das gefällt mir.

Lunia Hara: Kenza kenne ich zum einen über LinkedIn. Wenn man da aktiv ist, stoßt man halt auf Kenza. Wenn man zum Beispiel sich für KI, Diversity oder Digitalisierung irgendwie als Themen hat. Persönlich kennengelernt haben wir uns auf einem Event vor kurzem.

Joel Kaczmarek: Beschreib uns doch mal ein Stück weit deine Arbeit. Also wie hast du mit KI zu tun? Was machst du bei IBM?

Kenza Ait Si Abbou: Ich habe Elektrotechnik studiert und damals, Ende der 90er, hatte ich viele Fächer im Studium gehabt, habe auch meine Abschlussarbeit darüber geschrieben und im Laufe der Zeit eher den Fick verloren. Seit fünf Jahren wieder gefunden. Und heute leite ich ein Team bei IBM, was. MVPs baut mit Kunden zusammen und basieren mehrheitlich auf künstlicher Intelligenz und Automatisierungslösungen. Wir arbeiten mit allen Kunden, also Cross Industries und bauen mit ihnen zusammen. MVPs, also Minimal Viable Product. Ich glaube, die Zielgruppe weiß schon, was ich meine, um bestimmte Probleme zu lösen, ja.

Joel Kaczmarek: Vielleicht kannst du ja mal den Hörerinnen und Hörern draußen beschreiben, was genau eigentlich gemeint ist, wenn man von KI redet. Also da gibt es ja durchaus Unterschiede, sowas wie Deep Learning zum Beispiel und noch einiges andere mehr. Wenn man sich ja fragt, wie kommt denn das, dass auf einmal ein Computer, der anfängt zu denken, denkt der denn wirklich, kann man diskutieren, dass der anfängt zu diskriminieren. Wie trainiert man denn so einen Computer? Also woraus besteht so dein Doing, wenn du über KI redest?

Kenza Ait Si Abbou: KI ist ein Sammelsurium an Methoden, die es ermöglichen, dass eine Maschine aus ganz vielen Informationen Wissen extrahieren kann und mit diesem Wissen Probleme lösen kann oder Neues dazu lernen. Und dieses Sammelsurium an Methoden, darunter befindet sich das Maschinelle Lernen, das Deep Learning von neuronalen Netzen, es gibt Reinforcement Learning, also es gibt verschiedene Methoden, aber das Ziel von all diesen Methoden, entweder einzeln verwendet oder in Kombination, ist es am Ende, dass eine Maschine aus einem Haufen Informationen Wissen generieren kann. Also es gibt eine neue Generation, sage ich mal, wie das Reinforcement Learning zum Beispiel. Das basiert nicht auf historischen Daten. Lass uns mal diese neue Methode beiseite legen. Also bisher, die Methoden des Maschinenlernens basieren darauf, dass man der Maschine mit ganz vielen Daten füttert und aus diesen Daten zieht die Maschine ihre Schlüsse, um die Entscheidungen treffen zu können. Und diese Daten kommen ja von uns, von Menschen, von der Gesellschaft. Diese Daten werden ja ständig erfasst, entweder von Maschinen, wenn es um industrielle Anwendungen geht. Im gesellschaftlichen Bereich oder auch B2C sind es auch Daten, die von Menschen kommen. Also wenn wir über digitale Gesundheit sprechen, dann sind das die E-Akte, die heute nur langsam funktionieren. vorangeht, aber das wäre eine Quelle an Daten. Oder wenn es um Kaufverhalten geht, wenn man eine E-Commerce-Engine verbessern möchte, sammelt man diese Daten über das Verhalten der NutzerInnen auf der Webseite, die Klicks. Wenn es um Social Media geht, dann sind die Daten, jeder Klick oder jeder Lag, jedes Kommentar, den wir machen, das sind die Daten, mit denen die Maschinen lernen.

Joel Kaczmarek: Was genau ist dann ein Algorithmic Bias? Was passiert bei der KI?

Kenza Ait Si Abbou: Da fängt es an spannend zu werden. Wenn man historische Daten hat, die ein Abbild der Gesellschaft sind, lernt die Maschine das so, wie Menschen das in der Vergangenheit gemacht haben und sieht ihre Schlüsse. Okay, so wollen es die Menschen haben oder so verhalten sich Menschen und basierend darauf entscheidet sie in Zukunft. Das heißt, wenn die Daten schon eine Art Diskriminierung oder Vorurteil in sich haben, findet das die Maschine schon heraus und sie wiederholt diesen Vorurteil. Und die große Gefahr an das algorithmische Bias Magnitude, also die Skalierung, also als Kenzer, ich habe ein Vorurteil und diesem Vorurteil werde ich dann jedem Menschen entgegenbringen, dem ich begegne. Begegnungen sind ja begrenzt als Mensch. Wenn ich aber eine App bin, die millionenfach runtergeladen wird auf der ganzen Welt und ich ein Vorurteil gegenüber Menschen mit Glatze habe und diese Vorurteil in der App landet, dann wird sie diesen Vorurteil millionenfach in Sekundenschnelle reproduzieren. Ganz genau.

Ein Beispiel sind Gesichtserkennungssoftware zum Beispiel, die nachweislich dunkelhäutige Menschen viel schlechter erkennen als hellhäutige Menschen. Die erkennen auch Frauen viel schlechter als Männer. Das liegt darin, dass es in den Daten, Fotodatenbanken, die öffentlich vorhanden sind, weiße Männer überproportional repräsentiert sind. Und natürlich, dass die Kameras in der Aufnahme und mit dem Farbkontrast etc. sind. Bisschen schwieriger ist es ja klar, aber wenn man diese Maschinen trainiert, Gesichter zu erkennen, dann läuft das nicht bei allen Menschen gleich. Und das ist ja schon mal ein Problem. Da merkt man, dass es so ein rassistisches Verhalten, was in der Gesellschaft ist, von einer Maschine auch reproduziert werden kann mit schweren Folgen. Also da wurden auch Menschen, wenn diese Lösungen von der Polizei verwendet werden zum Beispiel, und das ist der Fall in den USA und auch in England, da wurden Menschen verhaftet, die von einem Algorithmus erkannt werden, obwohl das falsch war. Das war ein False Positive. Gesichtserkennungssoftware in China zum Beispiel wurde auch trainiert, um Uiguren zu erkennen, zu unterscheiden zwischen Han-Chinesen und Uiguren. Es gibt im Recruiting auch, wenn man in der Vergangenheit, also ich sag mal, es gibt ja viele KandidatInnen, die sich bewerben, gerade für Großunternehmen. Das können die Unternehmen ja gar nicht manuell handeln, alle diese Applicationsbewerbungen. Deswegen muss das automatisiert werden, diese Prozesse. Und dann sagt man an der Maschine, okay, das ist die Stellenausschreibung, das sind die Menschen, die wir in der Vergangenheit für solche Art Rollen eingestellt haben. Dann lerne jetzt etwas, wie die Optimalkandidaten für uns aussehen können und schlage uns jetzt ein paar Top Ten, sage ich mal, KandidatInnen vor, die wir für eine ähnliche Stelle uns anschauen sollen.

Natürlich, am Ende schauen sich das schon Menschen an und die Menschen entscheiden, aber trotzdem ist es nicht ganz irrelevant, welche auf die Top Ten listet. So und hier muss man sich vorstellen, wenn und wir hoffen, dass sich das ändert, aber bis heute war das so, Führungspositionen wurden mehrheitlich von Männern besetzt, viele Aspekte dahinter. und diese ganzen Aspekte, die findet die Maschine schon heraus, weil es sind Korrelationen in den Daten drin. und ob die eine Kausalität haben oder nicht, das ist ja erstmal egal. Aber wenn nur Männer in Führungspositionen sind, dann versteht die Maschine irgendwann, die Qualifikation für eine Führungsposition muss mit dem Geschlecht zu tun haben. Es hat keine Kausalität, weil einfach ein Mann zu sein, ist nicht ausreichend eine Qualifikation, um Führungsposition zu sein. Das heißt, das eine bedingt das andere nicht, aber in den Daten steht ja erstmal eine Beziehung. Und das findet die Maschine heraus und das findet die Maschine auch heraus, wenn man das Geschlecht löscht aus den CVs, weil es viele andere Indikatoren gibt. Also man kann in der Trainingsphase auch sagen, das Geschlecht darf nicht als Merkmal in der Entscheidungsfindung berücksichtigt werden. Das findet sich dann in den Hobbys. Was hast du als Kind? Warst du im Fußballclub? Hast du Ballett getanzt? Und dann irgendwann findet sie heraus, oh, immer wenn Fußballclub steht, war der Mensch in der Vergangenheit in Führung. Also Muss es irgendeinen Grund haben, also schlage ich den Nächsten, der im Fußballklub ist, für die Position.

Joel Kaczmarek: Also wenn man es jetzt mal zusammenfasst, heißt es ja im Prinzip, man speist mit korrumpierten Daten und deswegen lernt die Maschine sozusagen was Unideales. Kriegt man das wieder repariert?

Kenza Ait Si Abbou: Optimalfall für mich ist, dass wir diese Korruption aus den Menschen herauskriegen. Wir wollen unsere Kinder erziehen, im besten Fall, dass sie diese Vorurteile nicht mehr haben. haben, sodass wir in Zukunft diesen Fall gar nicht haben. Da gibt es auch keine Daten, von denen die Maschinen etwas Falsches lernen können. Das ist aber schon ein sehr fast ein utopischer Fall, denn wir können uns diesem Zustand annähern, aber so richtig gelingen wird es uns nie, weil Unconscious Bias, also diese Vorurteile, ist ja auch ein Energiesparmodus von unserem Gehirn. Also Unconscious Bias ist ein total normales Effekt. Unser Gehirn macht halt Schubladen, damit es Energie spart tatsächlich. Das, was wir mit Menschen machen sollen, ist, auf diese unbewussten Vorurteilen aufmerksam zu machen. Anerkennen, dass jeder von uns sie hat. Uns bewusst darüber machen, ich habe zwar ein Vorurteil, aber ich darf das nicht in meine Entscheidungsfindung oder in meinem Urteil einfließen lassen. Das ist das Zielbild für die Menschen. Now, die Maschine. Bias in den Daten zu identifizieren ist eigentlich etwas, was nichts Neues ist für Statistiker. Also in der Statistik, die suchen das immer. Vor KI, sage ich mal, wenn man ein Modell baut, muss man schon gucken, dass dieses Modell robust ist und nicht anfällig für Kleinigkeiten, die das Ergebnis komplett verändern. Und deswegen, Bias in den Daten zu identifizieren, ist möglich. Dafür gibt es auch Tools und Methoden. Der nächste Schritt ist herausfordernder. Sagen wir mal jetzt beim Beispiel Recruiting zu bleiben. Ich habe in den Daten festgestellt, in der Vergangenheit hatte ich nur lauter Männer mit Uni-Abschlüssen aus TU München und dergleichen. Wie kriege ich es hin? dass ich meine Mannschaft in Zukunft diversifiziere. Dass die KI mir nicht nur Matthias Müller von der TU München vorschlägt. Es ist ja eine sozio-technische Komponente. Ich muss den Menschen, die diese Maschinen programmieren, das sind DatenwissenschaftlerInnen, InformatikerInnen, die sitzen da und eigentlich haben mit mathematischen Modellen zu tun. Es sind nur Zahlen. Das heißt, ich muss denen sagen Bei 19% Bias in den Daten sorgt dafür, dass die Verteilung bis zu 50-50 kommt und alles, was darunter ist, eine schlechte Verteilung. Also wer definiert, was ist gerecht? oder ist es vielleicht ein anderer Prozentsatz, weil die Pipeline 50% gar nicht erlaubt. Wie bekomme ich eine Balance in den Daten hin, dass ich keine Unterrepräsentierung mehr habe von Frauen in Führungspositionen? Möchte ich die Daten duplizieren, die ich schon habe? Also wenn es nur in der Vergangenheit zehn Frauen gab überhaupt in der Geschichte dieses Unternehmens, die eine Führungsrolle übernommen haben, vervielfache ich das? Das sind dieselben Profile, die dann aber zehnfach gezeigt werden, damit die Daten ausgeglichen werden. Oder erzeuge ich synthetische Daten, die diesen Gap bis zur Parität ermöglichen? verringere ich die Masse an männlichen Daten? Das sind die Fragen, die man sich halt dann stellen muss, was die richtige Antwort ist. Und das übersetzt dann in mathematischen Modellen.

Also es gibt halt verschiedene Metriken, verschiedene statistische Methoden, die man nutzen kann, zusammen mit diesen Fragestellungen. Und dann probiert man aus und schaut, was das beste Ergebnis gibt. Aber das sind keine einfachen Entscheidungen. Und viele davon müssen auch von anderen Menschen getroffen werden, die nicht einen technischen Hintergrund haben, sondern eher einen soziologischen, psychologischen Hintergrund.

Lunia Hara: Ich will nochmal auf die Frage zurück, wie kann man dem entgegenwirken? Weil das ist ja ein bekanntes Phänomen, ist ja nichts Neues, wie du ja schon sagst, gab es ja schon vorher. Müsste das dann nicht eigentlich auch sich im Fach wiederfinden? Also beispielsweise, wenn man Informatik studiert, dass man halt genau auf dieses Thema Diskriminierung vor Urteile im Studium beispielsweise angegangen wird. Wird das gelehrt?

Kenza Ait Si Abbou: Also als ich studiert habe, nicht. Ich hoffe, dass es heute, dass diese Themen ihren Weg gefunden haben in die Curricula. Ich weiß, dass es zum Beispiel Studiengänge gibt wie Sozioinformatik und in diesen Studiengängen wird sowas thematisiert. Das ist aber genau an der Intersektion zwischen Soziologie und Informatik. Deswegen ist das schon ein wichtiger Bestandteil von den reinen technischen Studiengängen, kann ich dir nicht sagen, weil ich beschäftige mich nicht damit, was es an Curriculum gibt. Ich sage mal so, die Entwicklung von KI-basierten Lösungen ist ja nicht so alt, 20 Jahre vielleicht oder weniger. Früher war es eher Forschung und dass wir jetzt wirklich kommerzielle Produkte haben, das sind ein paar Dekaden. Viele Probleme, die wir jetzt in der letzten Dekade gesehen haben, werden jetzt gelöst und inzwischen gibt es ja auch Methoden und Tools dazu. Vieles ist in der Forschung, aber vieles kann man heute auch aufbauen. auf der Stange kaufen, also wie man Bias erkennt. Also IBM zum Beispiel hat ja auch viel geforscht in den letzten Jahren und viele Tools entwickelt, um Bias zu erkennen. Es gibt ein Tool Transparency 360 und ich will damit jetzt keine Werbung machen, weil diese Tools auch im GitHub zur Verfügung stehen. Die wurden der Open Source Community zur Verfügung gestellt. Das heißt, man muss die ja noch nicht mal kaufen. Die sind da vorhanden mit dem Ziel natürlich, dass so viele Menschen wie möglich sie nutzen. Natürlich, man kann die auch kaufen in unseren Produkten, aber Wie gesagt, mir geht es nicht um Sales Speech, sondern einfach zu sagen, es gibt die Möglichkeiten heute und viele sind auch Open Source, die können auch genutzt werden. Was vielleicht mehr fehlt, ist die Awareness darüber, ist diese Sensibilisierung darüber, dass KI, algorithmische Entscheidungen, algorithmische Systeme nicht neutral entscheiden. Sie entscheiden nur so neutral, wie sie trainiert wurden.

Joel Kaczmarek: Und du hattest ja eingangs erzählt, dass es jetzt dieses Reinforcement Learning gibt, dass man heutzutage ein bisschen anders die Maschinen unterrichtet. Sind die Probleme damit ad acta oder hat man das da in anderer Form auch?

Kenza Ait Si Abbou: Also beim Reinforcement Learning Foundation Models basieren dann weniger auf historischen Daten, sondern auf der Interaktion mit deren Umgebung. Das heißt, ein Reinforcement Learning Modell lernt bei jeder Interaktion von der Umgebung und wenn diese Interaktion mit Menschen ist, würde die Maschine vom Menschen direkt lernen, wie ich spreche, wie ich urteile, wie ich entscheide etc. etc. Da ist es ein bisschen schwieriger zu korrigieren, finde ich, weil du hast ja keine Datenbasis, die du dir vorher anschauen kannst, die du vorher kuratieren kannst, die du säubern kannst im Sinne Bias und sagst, okay, ich stelle jetzt wieder so eine Balance hin, dass die Maschine tatsächlich anhand von bestimmten Kriterien entscheidet, aber die Datenbasis ist so gut, dass die Maschine dann auch neutral entscheidet. Das hast du dann nicht mehr, weil die Maschine lernt tatsächlich direkt von der Interaktion mit der Umgebung. Das heißt, du musst dafür sorgen, dass die Umgebung richtig interagiert. Und das finde ich gerade in B2C-Anwendungen so ein bisschen schwierig. Weil am Ende ist es einfacher, eine Maschine zu korrigieren als einen Menschen.

Joel Kaczmarek: Ich habe auch darüber nachgedacht, als du beschrieben hast, wie man dann versucht, so Ausgleiche zu schaffen, also diese Thresholds anders zu setzen. Kannst du da nicht auch Gefahr laufen, dass du dir deine Daten sogar komplett ruinierst? Weil ich habe darüber nachgedacht, vielleicht gibt es ja Berufe, wo es einen Grund gibt, dass es mehr Männer gibt. Weiß ich nicht, weil es sich weniger Frauen bewerben, zum Beispiel Gefahrenberufe oder sowas so. Oder dass es bestimmte Vorlieben gibt oder, oder, oder. Und wenn ich dann künstlich hingehe, die Ausgleiche, kann es ja sein, weil eigentlich hast du ja gesagt, man zielt ja darauf ab, dass man Empfehlungen kriegt und dann beeinflusse ich die Empfehlung aber ein bisschen, indem ich wieder Input reingebe. Also was ich so raushöre ist, es ist manchmal auch so ein bisschen so ein Ritt auf der Rasierklinge mit Daten irgendwie zu handhaben.

Kenza Ait Si Abbou: Absolut. Deswegen meinte ich auch vorher, das ist ja gar nicht so einfach. Und 50-50 bedeutet nicht unbedingt, dass es gerecht ist. Wir haben ja auch diesen Unterschied zwischen Equity und Equality. In bestimmten Umfeldern wollen wir das gar nicht so haben. Deswegen, das muss je nach Anwendungsfall tatsächlich besprochen werden. Also in welchem soziologischen Umfeld man sich bewegt und was in diesem Umfeld richtig ist. Diese Fragen kann kein Techie beantworten.

Joel Kaczmarek: Ich Spannend finde ich an KI sonst immer, dass die so Verbindungen auftut, die man als Mensch gar nicht mehr nachvollziehen kann. Also es gibt ja so die Geschichten von Google, dass die ihre Datencenter irgendwann mal von der KI haben steuern lassen auf die Stromverwendung hin. Also die haben Computer gesagt, hier guckt ihr alles an und dann optimieren wir den Stromverlauf und die haben es geschafft, da 20 Prozent Stromverbrauch zu sinken und keiner weiß, wobei. Wieso? Oder ich habe einen guter Bekannter und Freund von mir, der ist irgendwie der Chef von Payback und der hat auch mal ganz unterhaltsame Geschichten, dass es zum Beispiel so Korrelationen gibt. Leute, die gern Biosprit kaufen, kaufen oft irgendwie Katzenstreu oder wer Bier einkauft, kauft auch Windeln, also so Sachen, die so für einen Menschen

Kenza Ait Si Abbou: Das ist ja ein Beispiel, wo man sagt, okay, auf den ersten Blick macht es überhaupt keinen Sinn. Dann, wenn du ein bisschen tiefer schaust, dann heißt es, ja, okay, die, die gerne Eiscreme essen, sind meistens auch in der Sonne draußen und vielleicht cremen sie dann eh weniger oder verbringen mehr Zeit in der Sonne und daher kommt der Hautkrebs. Da könnte man sagen, okay, da ist auch vielleicht eine Kausalität, aber indirekt, nicht direkt. Es gibt viele Sachen, wo es keine Kausalität gibt. Und das ist dann das Wichtige, dass man diese ganzen Korrelationen transparent macht. Das sind ja, wenn wir über Transparenz sprechen, von KI oder Erklärbarkeiten. Und Erklärbarkeit hat ja auch das Ziel, diese Entscheidungen zu verstehen, um das nachvollziehen zu können. Und das fängt damit an, dass du diese Korrelationen in den Daten erstmal herausfindest. Und dann muss man das als Team, als Entwicklungsteam, diese Korrelationen anschauen und auch nochmal überlegen, gibt es da eine Kausalität oder ist es reiner Zufall? Und die reinen Zufälle werden ausgeschlossen. Und da, wo es eventuell eine Sinnhaftigkeit ergibt, dann gibt es dann die nächste Trainingsphase, wo man auch sagt, okay, diese Kausalität machen tatsächlich Sinn. Und so stellst du halt Transparenz in der Bleibox her, dass du die Entscheidung nachvollziehen kannst. Je nach Anwendungsfall, ob du diese Entscheidung verstehen möchtest oder nicht, kann es sein, dass du bestimmte Methoden, bestimmte Algorithmen nicht anwenden kannst. Das erlauben nicht alle. Und das ist dann auch eine Entscheidung, die man machen muss, bevor man die Lösung baut. Ist das etwas, wo ich tatsächlich nachvollziehen muss, wie die Maschine zu dieser Schlussfolgerung kam? Muss ich mich explizit für diese Methoden entscheiden oder ich muss explizit diese Algorithmen ausschließen, weil mir diese Transparenz gar nicht ermöglicht?

Joel Kaczmarek: Vielleicht führen wir das Thema auch mal ein bisschen jetzt weiter in die konkrete gelebte Führung, weil du hast ja ein Buch geschrieben, Unlearned Patriarchy.

Kenza Ait Si Abbou: Nur ein Kapitel davon, ich wollte vorher korrigieren, aber ich dachte, wenn wir dazu kommen. Genau, das ist eine Anthologie, also wir sind 15 AutorInnen.

Joel Kaczmarek: Du hast es herausgegeben.

Kenza Ait Si Abbou: Ein Buch, ein Kapitel, nicht ein Buch, ein Kapitel daraus, ja.

Joel Kaczmarek: Wenn du das Buch mal so Revue passieren lässt, hast du so Learnings, von denen du sagen würdest, dieses Hauptziel, was du ja eigentlich gesagt hast, nämlich der Gesellschaft beibringen, manche Sachen zu verlernen und andere zu erlernen, dass man irgendwie eine Gleichberechtigung und eine Diversität hinkriegt. Hast du da so eine Art Anleitung gewonnen aus dem Verfassen des Buches und aus dem Zusammentragen, wo man sagt jetzt, okay, wow, Leute, lest euch mal das und das durch, das hat für mich so die Augen geöffnet und könnte genau in dem Kontext auch relevant sein?

Kenza Ait Si Abbou: Absolut. Also ich habe ein Kapitel zu Technologie geschrieben und auch über diese Themen gesprochen, dass Technologie per se ja nicht neutral ist, sondern sie ist nur so neutral, wie sie gebaut und trainiert wurde. Dass dafür ja auch diverse Teams notwendig sind, damit diese Problematiken auch in der Trainingsphase auffallen und korrigiert werden. Und natürlich auch mit dem Schwerpunkt, ein bisschen mehr Frauen in die Tech-Branche bitte, das ist kein Geheimnis, das ist nur ein Handwerk. Und als ich die anderen Kapitel gelesen habe, hat mir das viel zum Nachdenken gebracht. Denn wenn man das liest aus dieser feministischen Perspektive, dann stellt man fest, boah, ist ja eigentlich gar nicht selbstverständlich, sondern das ist ein Plan. Das hat ein System, das heißt Patriarchat. Und dieses System wurde von mehreren hunderten Jahren von bestimmten privilegierten Gruppen so gebaut, um ihre Privilegien zu erhalten. Dass wir immer noch in diesem System leben und das so für selbstverständlich erachten und das an unsere Kinder weitergeben, ist ein Problem. Das ist ja die Auseinandersetzung mit solchen Sachen. Warum ist Familie nur Vater, Mutter, Kind? Die, die keine Kinder haben, sind keine Familien. Und die aus demselben Geschlecht kommen, sind keine Familien. Oft hat man ein besseres Verhältnis zum Nachbar oder zu einer besten Freundin. Warum ist die nicht Familie oder eine Patchwork-Familie? Das hat man gerade in Corona zum Beispiel, wenn jemand im Krankenhaus ist und tatsächlich im Sterbebett liegt, wenn man nicht verheiratet ist, da kann man ja gar nichts entscheiden oder was auch immer. Und das ist ein System, was sehr, sehr, sehr, sehr lange ist. Und wenn man sich Gedanken darüber macht oder auch Geschlecht mit der Binarität oder nicht Binarität, wie wir heute wissen, Themen, die wie jeder von uns im Alltag entstehen, einfach so immer hingenommen hat, ohne sich darüber Gedanken zu machen oder ohne zu reflektieren. Wenn man manchmal auch schaut, was die Kinder uns fragen, diese Warum-Fragen der Kinder, die sind ja total spannend, weil Kinder nehmen das erstmal nur als Information. Es ist ja nur Neugierde, sie hinterfragen alles. Und oft können wir diese Fragen gar nicht beantworten. Und dann nach der dritten Warum-Frage sagen wir einfach, weil das einfach so ist. Ja, vielleicht sollte man sich ein bisschen mehr Gedanken darüber machen, wenn die Kinder das fragen. Es gibt immer ein Warum.

Lunia Hara: Genau damit halten wir uns ja ziemlich lange auf. Etwas, was eigentlich gar keinen Bestand mehr hat, dass man halt daran festhält. Also jetzt um dem Beispiel mit Familie zu bleiben, dass viele ja daran festhalten, nee, nee, Familie ist schon definiert. Das ist Vater, Mutter, Kind. Und sobald du da eine neue neue Komponente reinbringst, da kommen damit viele gar nicht mehr klar. Wo man sagt, wir können es doch neu definieren, ohne dass die bestehenden Familien irgendwas weggenommen wird. Es wird ja nur noch eine Ergänzung, die ja eigentlich im Gegenteil noch anderen Gruppen, die ja vielleicht da ausgeschlossen werden, hilft. Aber da fängt ja die Diskussion ja schon an, dass man halt ein altes System nicht anfassen möchte, obwohl es auch nach heutiger Zeit eigentlich keine Logik dahinter ist.

Joel Kaczmarek: Was ich mit dir gerne auch nochmal spannend finde zu diskutieren, in unserem Vorgespräch hast du was über Empathie in der Führung gesagt, was du für wichtig erachtest. Und es ist jetzt ein bisschen so ein Randthema, aber ich fand es nochmal teilenswert, den Leuten mal mit auf den Etat zu gehen.

Kenza Ait Si Abbou: So ein Randthema, also ich finde, das hat alles miteinander zu tun. Dieses patriarchale System hatte auch ganz, ganz, ganz viele böse Folgen. Rassismus ist auch eine Folge dazu und die Unterdrückung von Frauen. Und das hatte natürlich auch einen Einfluss auf gesellschaftliche Normalität. Und wer Macht bekommt und wer nicht. Und Macht muss man sich erkämpfen. Macht wird einem nicht geschenkt. Und so ist es ja auch in der Führung. Wie das Management sich in den letzten Jahren entwickelt hat oder Führung und dieses Image der Dominanz und Machtmissbrauch teilweise, haben dazu geführt, dass die Belegschaft auch die Führung nicht wirklich genießt. Also anders mit einer Distanz. Es gibt dieses Phänomen des einsamen CEOs. Also je höher man die Karriereleiter hochkommt, desto einsamer wird es, weil die Belegschaft sich immer mehr distanziert. Es gab damals natürlich auch viel mehr Klassismus, sage ich mal, und Trennung als heute. Heute reden wir über flachen Hierarchien und dann reden wir über empathische Führung, was ich großartig finde. Und ich glaube, das ist ja auch ein Phänomen, der dadurch entsteht, dass immer mehr Frauen wie du und ich, Lunja, in Führung kommen. Und auch die weiblichen Stärken mitbringen, dass wir auch andere Aspekte mitbringen und aufmerksam machen, dass es auch wichtig ist. Die Menschen sind keine Maschine und die Belegschaft sind keine Maschinen, aber auch die Führungsregel ist keine Maschine. Und was mir im ganzen Narrativ fehlt, ist nicht nur die Top-Down-Empathie, sondern auch die Bottom-Up-Empathie. Denn ich merke das oft, der Eindruck da ist, man ist als Chef, man kriegt natürlich das ganze Ärger und Druck von oben und von unten und man muss aber trotzdem immer positiv sein, die Leute motivieren, die Leute inspirieren, viele Kuscheleinheiten anbieten jeden Tag, viel loben, viel Wertschätzung zeigen und das jeden Tag, jeden Tag, jeden Tag. Und da fragt man sich, wann kommt ein bisschen Liebe zurück? Und diese Liebe kommt nie zurück oder selten zurück. Weil die Menschen daran antrainiert wurden, im Laufe der Jahre, dass diese Chefs wieder da oben, die sind weit weg. Das sind Roboter, die brauchen das nicht. Was wiederum für diese Menschen bedeutet, wenn ich keine Liebe bekomme, muss aber so viel Liebe geben, also irgendwann stumpfe ich ab. Am Ende führt das hinzu, dass ich irgendwann gar keine Liebe mehr geben kann. Dass ich auch kein Feedback mehr annehme, weil ich muss mich schützen. Weißt du, sonst nehmen sie nur meine ganze Energie raus und ich muss schauen, wo ich meine herkriege und die kriege ich nicht vom Geld. Das, was ich jeden Monat bekomme, ist kein Gehalt, das ist Schadensersatz. So und deswegen finde ich, damit dieses System funktioniert und nachhaltig funktioniert, brauchen wir auch eine Belegschaft, die versteht, dass auch die Chefs Menschen sind und dass sie auch ab und zu mal ein bisschen Lob brauchen und Empathie brauchen, dass man auch ein bisschen reflektiert, ist das etwas, was sie tatsächlich verändern können oder sind sie auch nur Opfer des Systems?

Lunia Hara: Ich finde es sehr interessant, dass du sagst, dass die Belegschaft antrainiert wurde und diese künstliche Distanz von der Belegschaft kommt.

Kenza Ait Si Abbou: Es ist eine Wechselwirkung.

Lunia Hara: Also dass diese künstliche Distanz, die geschaffen wurde, bewusst gemacht wurde. Control und Order, weil halt einfach früher nochmal andere Führungsstile hat. Wenn deine Belegschaft Angst hat, pariert sie eher. Und dass das halt eher von den Führungskräften geschaffen wurde, als dass es von der Belegschaft geschaffen wurde. Und ich gebe dir natürlich vollkommen recht. Als Führungskraft brauchst du natürlich auch Empathie, Verständnis und Wertschätzung, damit du diese Arbeit natürlich auch machen kannst, beziehungsweise auch die Energie hast, um da halt auch weiterzumachen. Da kann man sich natürlich darüber diskutieren, wer ist dafür verantwortlich.

Kenza Ait Si Abbou: Nee, das ist gar nicht notwendig, finde ich. Also wenn du der Meinung bist, dass es in der Vergangenheit so mit Absicht war, okay, ich sage überhaupt kein Thema. Ich will mich gar nicht über die Vergangenheit unterhalten, sondern über die Zukunft. Wenn wir für alle, für uns alle gemeinsam eine bessere Zukunft schaffen wollen, eine bessere Leadership, eine bessere empathische Führung schaffen wollen Dann müssen wir diesem Zustand bisher schon bewusst werden, im Narrativ diese Wechselwirkung wieder aufnehmen. Weil was man sieht in den ganzen, nicht nur Ratgebern, sondern was man als Führungskraft erledigen muss, du musst ja ein bisschen Experte sein, du musst empathisch sein, du musst ein Psychologe sein und du musst bla bla bla bla und du musst und du musst und du musst und du musst. Da kommen auf Liste immer mehr, immer mehr Sachen rauf, zu sagen, Moment mal Leute. sich irgendjemand überlegt, dass es eigentlich ganz realistisch ist, dass eine einzige Person das alles liefern kann. Und wir haben heute ein Problem, nicht nur in Deutschland, ich glaube, es ist ein allgemeines Problem, dass immer weniger Leute Führung wollen.

Lunia Hara: Also ich glaube, dass immer weniger Leute Führung wollen, vielleicht weil sie nicht so führen können, wie sie führen würden, weil einfach das System an manchen Dingen nicht zulässt, weswegen auch viele Frauen bestimmte Rollen dann halt auch gemieden

Kenza Ait Si Abbou: haben,

Lunia Hara: weil man gesagt hat, okay,

Kenza Ait Si Abbou: ich würde es gerne

Lunia Hara: machen, aber nicht in dieser Kultur. Absolut. Soft Skills sowieso nicht gefragt waren. Eine Führungskraft muss nicht alles können, kann sie auch nicht. ist ja auch nur ein Mensch, wie du auch schon so schön gesagt hast, schon gar nicht ein Experte in allem. Du sollst auch sagen, dass du etwas nicht kannst. Und dafür hast du ja auch Experten in unterschiedlichen Bereichen, die hoffentlich dann halt auch da, wo du Schwächen hast, sogar besser sind als du, weil die sollen ja dann unterstützen, die Ziele zu erreichen. Zum Thema Distanz bin ich der Meinung, dass man das als Führungskraft schon auflösen kann. Es ist eher für mich eher eine Kulturfrage. Was für eine Kultur möchte ich als Führungskraft haben? Und was lebe ich vor? Wie offen gehe ich mit meinen eigenen Themen um? Gebe ich auch das Feedback, wenn ich das Gefühl habe, ich werde von meinem Mitarbeiter unfair behandelt? Halt, stopp, du siehst jetzt gar nicht, was ich da jetzt halt eigentlich hier alles versucht habe für dich zu lösen und dass man das natürlich auch offen ansprechen kann. Und dass man das halt als Führungskraft durchaus transparent machen kann. Also ich gehe auch manchmal, dass ich sage, ich werde heute diesem Termin nicht gerecht. Ich würde den gerne absagen, mir geht es nicht so gut aus dem und dem Grund. Und damit bringst du ja natürlich den Leuten bei, dass ich auch ein Mensch bin, Gefühle habe und ich auch mal Tage habe, wo es mir nicht so gut geht und wo ich natürlich auch Mitarbeiterin brauche, die dann sagt, okay, verstehe ich, können wir absagen, machen wir ein andermal. Achte auf dich selbst. Weil wenn es dir gut geht, kannst du auch andere unterstützen und sich nicht zu vorausgaben. Ich glaube, es ist eher ein Kulturthema im Unternehmen, als dass es ein Führungsproblem ist, dass die per se die Mitarbeitenden eine zu hohe Erwartung haben an eine Führungskraft.

Kenza Ait Si Abbou: Das System ist ein Monster und solange Menschen mitmachen, wird dieses Monster noch stärker und noch größer und jeder von uns muss aufhören, das Monster zu füttern. Das, was du gesagt hast, unterschreibe ich sofort. Das kannst du sehr gut in eine Beziehung machen zwischen dir und deinen direkten Mitarbeitern. Wenn wir jetzt ein paar Hierarchien drüber sind. Da hast du die Möglichkeit ja gar nicht mehr zwangsläufig, weil du hast nicht so einen täglichen Austausch oder einen wöchentlichen Austausch, sondern es ist dann vielleicht, keine Ahnung, ein All-Hands-Call einmal im Monat, einmal drei Monate. Das ist dieser Reflexionspunkt. Also wenn ich an meine Jahre zurückdenke, als ich angefangen habe zu arbeiten. habe ich mich mit den Chefs immer total auf Augenhöhe verhalten und das war total lustig. Ich glaube, in der ersten Woche, in der ich bei der Telekom war, 2011, bin ich in die Kantine gegangen und da saßen Abteilungsleiter alleine in der Kantine und er war zufälligerweise in meinem Bewerbungsgespräch in einem von den mehreren, die ich hatte und dann bin ich zu ihm gegangen und habe gesagt, ach, Hallo, wir kennen uns aus dem Bewerbungsgespräch, ich habe einen Job bekommen, ich bin jetzt hier, kann ich mich zu Ihnen setzen und zum Mittagessen. Ich habe mich mit ihm unterhalten, Mittagessen, kurz gegessen und dann ist sie da gegangen. Danach haben mich Kollegen gefragt, du bist zum Abteilungsleiter gegangen und ich, ja warum nicht? Und du hast ja zwei Ebenen über dich und ich. Und ich habe meine Chefs und egal welche, ich habe früher auch als Hostess gearbeitet und habe Vorstände betreut auf verschiedenen Veranstaltungen. Für mich waren das immer Menschen. Das war auch teilweise ein Kriterium, warum sie auch mit mir gerne zusammenarbeiten wollten. Also oft hatten wir diese selben Kunden, sage ich mal, ein paar Automobilhersteller hier aus dem Süden Deutschlands, die dann immer gesagt haben, ja, die Kensa macht die VIP-Betreuung wieder, weil ich keine Angst hatte, weil ich mich einfach mit denen so unterhalten habe, wie ich mich mit dir unterhalten. Und die spüren das auch. Das ist eine auf Augenhöhe Unterhaltung. Und es ist egal, ob das jetzt der CEO von VW war und ich eine kleine Hostess, die noch studiert hat. Wir haben uns einfach so unterhalten und es ist eine angenehme Atmosphäre, die auch für sie angenehm war.

Lunia Hara: Aber von wem kam das? Kam das von dir oder kam das von denen?

Kenza Ait Si Abbou: Ich fühle mich wohl mit anderen Menschen, egal wer sie sind und woher sie kommen. Das spüren die anderen auch.

Lunia Hara: Ich habe immer den Ansatz, dass du als Führungskraft und das gilt natürlich auch für CEOs, auch immer akzeptieren musst, dass Menschen unterschiedlich sind. Es gibt welche, so wie du, die einfach sich zum Abteilungsleiter setzen und sagen, so kann ich mit dir Mittag essen, was ja total legitim ist, ist ja am Ende auch nur ein Kollege. Und es gibt aber welche, die haben vielleicht erstmal eine Distanz und Angst und Respekt. Und dann ist es eigentlich aus meiner Sicht Aufgabe des CEOs, der Abteilungsleitung, der Führungskraft, diese Distanz aufzulösen, indem ich einen Schritt auf die Leute zugehe. Ihr dürft, ihr könnt, ich möchte das sogar. Ich warte nicht, dass ihr mich zu euch zu mir setzt, sondern ich setze mich zu euch. Und wenn ihr mich seht, ist es total selbstverständlich, dass ihr mich natürlich auch zu mir setzen könnt. Das heißt, da bin ich natürlich als Führungskraft in der Pflicht, diesen ersten Schritt zu machen, um beizubringen, es ist total okay, ich will das sogar.

Kenza Ait Si Abbou: Das muss man dann auch wiederholen und wiederholen und wiederholen, weil viel mehr Glauben als das Verhalten von einer Person. Ja, ja.

Joel Kaczmarek: Also ich nehme mal mit, du hast vorhin so einen schönen Satz gesagt, eine gesunde Umwelt ist wichtig für eine Firma und wenn wir auf unser ursprüngliches Thema nochmal zurückkommen, auf die KI, dann eigentlich auch. Also das ist so ein Stückchen mein Fazit, dass ein Computer natürlich nur so schlau ist, wie die Umgebung, in der er lernt oder die Umwelt. und das ist so, was ich heute mitnehme. Wie ist es mit euch? Was war so euer Fazit?

Lunia Hara: Was ich mitnehme, ist tatsächlich das Thema bestehende Systeme erhalten und fortführen, obwohl sie gar nicht mehr legitim sind. Das ist mir jetzt nochmal aus unserer Diskussion bewusst geworden. Würde ich gerne nochmal näher drüber nachdenken, tatsächlich.

Joel Kaczmarek: Und du warst ja heute vor allem die Aufschlauende, aber vielleicht hast du auch was mitgenommen.

Lunia Hara: Oh Gott.

Kenza Ait Si Abbou: Immer, immer. Ja, was ich mitnehme, glaube ich auch für mich die Erinnerung, viel mehr zu hinterfragen. Bestehende Muster zu hinterfragen, nicht die Sachen einfach hinzunehmen, ja.

Joel Kaczmarek: Das ist ja wie ein Bildungsauftrag zum Schluss. Von daher, besser hätte ich es nicht beenden können. Vielen, vielen Dank, dass du da warst, ihr beide. Es hat mir viel Spaß gemacht und keep us posted.

Outro: Danke fürs Zuhören beim Digital Kompakt Podcast. Du merkst, hier ziehst du massig Wissen für dich und dein Unternehmen heraus. Wenn du mit uns noch erfolgreicher werden möchtest, abonniere uns auf den gängigen Podcast Plattformen. Und hey, je größer wir werden, desto mehr Menschen können wir helfen. Also erzähl doch auch deinen Kolleginnen und Kollegen von uns. Bis zum nächsten Mal.

Mehr zum Thema

Diversity

Diese Episode dreht sich schwerpunktmäßig um Diversity: Lasst uns Organisationen neu, offen und tolerant denken! Nachdem wir anfangs die Organisationsentwicklerin Marina Löwe und Ratepay-Gründerin Miriam Wohlfarth wiederholt vor dem Mirko hatten, um dich für Diversity zu sensibilisieren, diskutiert Joel mittlerweile regelmäßig mit Lunia Hara (Diconium) zu Themen rund um Leadership und Diversity. Dabei geht es den beiden explizit nicht um Mann oder Frau, sondern um die Schaffung von Empathie füreinander sowie ein ganzheitliches Bild und Verständnis für verschiedene Rollen und Perspektiven.