Algorithmic Bias: Wenn eine KI dich diskriminiert

19. Dezember 2022, mit Joel KaczmarekLunia Hara


🧠 Joëls Learnings

  1. KI-Systeme können Verzerrungen (Bias) aus den Trainingsdaten übernehmen und so Diskriminierung reproduzieren, zum Beispiel gegenüber Frauen oder Minderheiten. Dies kann schwerwiegende Folgen haben.

  2. Es gibt Methoden, um diesen Bias in den Trainingsdaten und Modellen zu erkennen und zu korrigieren, aber es ist ein komplexes sozio-technisches Problem, das interdisziplinäre Lösungen erfordert.

  3. Zusätzlich zu technischen Ansätzen ist es wichtig, dieses Thema bereits in der Ausbildung von Informatiker:innen zu verankern und ein stärkeres Bewusstsein dafür zu schaffen.

  4. Das Konzept des "Patriarchats" als historisch gewachsenes, privilegien-erhaltendes System sollte hinterfragt und verlernt werden, um Gleichberechtigung und Diversität zu fördern.

  5. Empathische Führung erfordert eine Wechselseitigkeit von Wertschätzung und Verständnis zwischen Führungskräften und Mitarbeitenden.

  6. Bestehende, veraltete Systeme und Muster sollten kontinuierlich hinterfragt werden, um Veränderung und Fortschritt zu ermöglichen.

  7. Eine gesunde, diskriminierungsfreie Umgebung ist entscheidend, damit KI-Systeme korrekt lernen und keine Verzerrungen übernehmen.