KI, Klischees & Konsequenzen – Gender Bias im System cover art

KI, Klischees & Konsequenzen – Gender Bias im System

KI, Klischees & Konsequenzen – Gender Bias im System

Listen for free

View show details

About this listen

Diese Folge TBD Tech Beauty Discussion wird persönlich, praxisnah und bewusst kritisch: Kevin und Constance sprechen mit Sarah Rojewski, Expertin für Responsible AI, über Geschlechterrollen in der Welt der Künstlichen Intelligenz.

Warum heißen smarte Assistent:innen meist Siri oder Alexa, aber mächtige KI-Systeme Watson? Was steckt hinter solchen Namen – und wie beeinflussen sie unser Denken? Sarah bringt Beispiele aus der Praxis, diskutiert mit uns über Gender Bias in medizinischen Diagnosen oder Beauty-KI-Tools – und zeigt, wie subtil (und manchmal auch ganz offensichtlich) Diskriminierung in KI-Systemen abläuft.

Außerdem sprechen wir über:
💡 Warum Personalisierung nicht immer Fortschritt bedeutet
💡 Warum manche Hauttöne oder Haartypen in Beauty-Algorithmen unterrepräsentiert sind
💡 Und wie wir selbst beim Prompten oder Tool-Auswählen zu mehr Diversität beitragen können

Eine Folge für alle, die Technik nicht nur nutzen, sondern auch hinterfragen – und mitgestalten wollen.

activate_mytile_page_redirect_t1

What listeners say about KI, Klischees & Konsequenzen – Gender Bias im System

Average Customer Ratings

Reviews - Please select the tabs below to change the source of reviews.

In the spirit of reconciliation, Audible acknowledges the Traditional Custodians of country throughout Australia and their connections to land, sea and community. We pay our respect to their elders past and present and extend that respect to all Aboriginal and Torres Strait Islander peoples today.