Algorithmic Bias: Wenn eine KI dich diskriminiert

19. Dezember 2022, mit Joel KaczmarekLunia Hara


Executive Summary

Eine künstliche Intelligenz kann nur so sensibel sein, wie der Mensch, der sie programmiert hat. Dadurch dass es auch beim Menschen immer noch viele Blindspots beim Thema Diversity gibt, spiegeln sich diese natürlich auch in der Maschine wieder. Im Gespräch mit Autorin Kenza Ait Si Abbou, erkunden Joel und Lunia diesmal, wie man diese Algorithmic Biases erkennt und korrigieren kann und wie man sowohl Mensch, als letztlich auch künstliche Intelligenz für Diversity besser sensibilisieren kann.


Zielgruppe

  • KMU
  • Corporate

Score Cards

  • 80%
    Praxisbezug
    Praxisintensiv
  • 60%
    Wissenslevel
    Fachkundig
  • 70%
    Zeitlosigkeit
    Langlebig

Darum solltest du reinhören

Du erfährst...
…warum Algorithmic Biases entstehen …welche Algorithmic Biases in KI derzeit ein Problem sind …ob man diese Biases einfach „reparieren“ kann …wie die Methode des Reinforced Learnings mit dem Thema Diskriminierung umgeht …ob zuviel Nachbearbeitung von KI-Ergebnissen auch eine Gefahr darstellen können …mit welchen Methoden man Diskriminierung entlernen kann …welche Empathie in die Führung spielt …wie man Hierarchie-Barrieren innerhalb einer Firma abbauen kann

Kapitel

(00:00:00) Vorstellung und Einführung ins Thema   (00:04:38) Was ist Algorithmic Bias?   (00:08:00) Kann man Algorithmic Bias reparieren?   (00:13:05) Reinforcement Learning   (00:17:18) Wie kann man Diversity lehren?   (00:20:45) Empathie in der Führung

In diesem Podcast