🧠 Joëls Learnings
-
KI-Systeme können Verzerrungen (Bias) aus den Trainingsdaten übernehmen und so Diskriminierung reproduzieren, zum Beispiel gegenüber Frauen oder Minderheiten. Dies kann schwerwiegende Folgen haben.
-
Es gibt Methoden, um diesen Bias in den Trainingsdaten und Modellen zu erkennen und zu korrigieren, aber es ist ein komplexes sozio-technisches Problem, das interdisziplinäre Lösungen erfordert.
-
Zusätzlich zu technischen Ansätzen ist es wichtig, dieses Thema bereits in der Ausbildung von Informatiker:innen zu verankern und ein stärkeres Bewusstsein dafür zu schaffen.
-
Das Konzept des "Patriarchats" als historisch gewachsenes, privilegien-erhaltendes System sollte hinterfragt und verlernt werden, um Gleichberechtigung und Diversität zu fördern.
-
Empathische Führung erfordert eine Wechselseitigkeit von Wertschätzung und Verständnis zwischen Führungskräften und Mitarbeitenden.
-
Bestehende, veraltete Systeme und Muster sollten kontinuierlich hinterfragt werden, um Veränderung und Fortschritt zu ermöglichen.
-
Eine gesunde, diskriminierungsfreie Umgebung ist entscheidend, damit KI-Systeme korrekt lernen und keine Verzerrungen übernehmen.