Algorithmic Bias: Wenn eine KI dich diskriminiert
19. Dezember 2022, mit Joel Kaczmarek, Lunia Hara
🧠 Joëls Learnings
-
KI-Systeme können Verzerrungen (Bias) aus den Trainingsdaten übernehmen und so Diskriminierung reproduzieren, zum Beispiel gegenüber Frauen oder Minderheiten. Dies kann schwerwiegende Folgen haben.
-
Es gibt Methoden, um diesen Bias in den Trainingsdaten und Modellen zu erkennen und zu korrigieren, aber es ist ein komplexes sozio-technisches Problem, das interdisziplinäre Lösungen erfordert.
-
Zusätzlich zu technischen Ansätzen ist es wichtig, dieses Thema bereits in der Ausbildung von Informatiker:innen zu verankern und ein stärkeres Bewusstsein dafür zu schaffen.
-
Das Konzept des "Patriarchats" als historisch gewachsenes, privilegien-erhaltendes System sollte hinterfragt und verlernt werden, um Gleichberechtigung und Diversität zu fördern.
-
Empathische Führung erfordert eine Wechselseitigkeit von Wertschätzung und Verständnis zwischen Führungskräften und Mitarbeitenden.
-
Bestehende, veraltete Systeme und Muster sollten kontinuierlich hinterfragt werden, um Veränderung und Fortschritt zu ermöglichen.
-
Eine gesunde, diskriminierungsfreie Umgebung ist entscheidend, damit KI-Systeme korrekt lernen und keine Verzerrungen übernehmen.
Diese Episode dreht sich schwerpunktmäßig um Diversity: Lasst uns Organisationen neu, offen und tolerant denken! Nachdem wir anfangs die Organisationsentwicklerin Marina Löwe und Ratepay-Gründerin Miriam Wohlfarth wiederholt vor dem Mirko hatten, um dich für Diversity zu sensibilisieren, diskutiert Joel mittlerweile regelmäßig mit Lunia Hara (Diconium) zu Themen rund um Leadership und Diversity. Dabei geht es den beiden explizit nicht um Mann oder Frau, sondern um die Schaffung von Empathie füreinander sowie ein ganzheitliches Bild und Verständnis für verschiedene Rollen und Perspektiven.