Transkript zum Video (DH Sozialwissenschaft)
Digital Humanities Projekt Diagnosing gender bias in image recognition systems: KI-Modelle wie ChatGPT oder Midjourney stellen Frauen und Minderheiten oft unausgewogen dar. So entstehen beispielsweise bei der Bildgenerierung mit Prompts wie „Forschende“ meist Darstellungen älterer weißer Männer, obwohl Wissenschaftlerinnen und Wissenschaftler ganz unterschiedlich aussehen. KI Modelle werden auch bei der Klassifikation von z.B. Bildern verwendet. So kann man z.B. in der Foto App bei iPhones oder in Google Fotos seine Bilder schnell durchsuchen und einfach kategorisieren. Diagnosing Gender Bias in Image Recognition Systems untersucht, wie solche Bildanalyse- und Erkennungssysteme potenziell geschlechtsspezifische Verzerrungen (Gender Bias) aufweisen. Lade die PDF herunter und lerne mehr über Diagnosing Gender Bias in Image Recognition System!