Algorithmic Bias: Wenn eine KI dich diskriminiert | #Diversity 🏳️‍🌈

Shownotes

EXPERTENGESPRÄCH | Eine künstliche Intelligenz kann nur so sensibel sein, wie der Mensch, der sie programmiert hat. Dadurch dass es auch beim Menschen immer noch viele Blindspots beim Thema Diversity gibt, spiegeln sich diese natürlich auch in der Maschine wieder. Im Gespräch mit Autorin Kenza Ait Si Abbou, erkunden Joel und Lunia diesmal, wie man diese Algorithmic Biases erkennt und korrigieren kann und wie man sowohl Mensch, als letztlich auch künstliche Intelligenz für Diversity besser sensibilisieren kann. Du erfährst... …warum Algorithmic Biases entstehen …welche Algorithmic Biases in KI derzeit ein Problem sind …ob man diese Biases einfach „reparieren“ kann …wie die Methode des Reinforced Learnings mit dem Thema Diskriminierung umgeht …ob zuviel Nachbearbeitung von KI-Ergebnissen auch eine Gefahr darstellen können …mit welchen Methoden man Diskriminierung entlernen kann …welche Empathie in die Führung spielt …wie man Hierarchie-Barrieren innerhalb einer Firma abbauen kann ➡️ Du konntest dir keine Notizen machen? Unser [digital kompakt+ Newsletter](newsletter.digitalkompakt.de) fasst dir für jede Folge die wichtigsten Punkte zusammen Diese Episode dreht sich schwerpunktmäßig um Diversity: Lasst uns Organisationen neu, offen und tolerant denken! Nachdem wir anfangs die Organisationsentwicklerin Marina Löwe und Ratepay-Gründerin Miriam Wohlfarth wiederholt vor dem Mirko hatten, um dich für Diversity zu sensibilisieren, diskutiert Joel mittlerweile regelmäßig mit Lunia Hara (Diconium) zu Themen rund um Leadership und Diversity. Dabei geht es den beiden explizit nicht um Mann oder Frau, sondern um die Schaffung von Empathie füreinander sowie ein ganzheitliches Bild und Verständnis für verschiedene Rollen und Perspektiven. __________________________ ||||| PERSONEN ||||| 👤 Joel Kaczmarek, Geschäftsführer digital kompakt 👤 Lunia Hara, LinkedIn Changemaker 👤 Kenza Ait Si Abbou, Autorin & Director Client Engineering DACH bei IBM __________________________ ||||| SPONSOREN ||||| 🔥 [Übersicht](https://www.digitalkompakt.de/sponsoren/) aller Sponsoren __________________________ ||||| KAPITEL ||||| (00:00:00) Vorstellung und Einführung ins Thema   (00:04:38) Was ist Algorithmic Bias?   (00:08:00) Kann man Algorithmic Bias reparieren?   (00:13:05) Reinforcement Learning   (00:17:18) Wie kann man Diversity lehren?   (00:20:45) Empathie in der Führung __________________________ ||||| WIR ||||| 💛 [Mehr](https://lnk.to/dkompakt) tolle Sachen von uns  👥 Wir von digital kompakt streben die Verwendung einer geschlechtsneutralen Sprache an. In Fällen, in denen dies nicht gelingt, gelten sämtliche Personenbezeichnungen für alle Geschlechter.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.