Der Katholische Deutsche Frauenbund (KDFB) hat einen Beitrag in 2/23 KDFB engagiert zu KI und den Implikationen für Frauen geschrieben und dafür u.a. die Bayerische Digitalministerin Judith Gerlach sowie unsere Vorständin Eva Gengler interviewt. Es wird klar: KI bringt viele Chancen, aber auch enorme Risiken mit sich. Denn sie lernt von homogenen Teams, gebiasten Daten und wird in diskriminierenden Kontexten eingesetzt.
Die Norm ist der weiße Mann
„Wir haben definitiv ein Problem mit dem großen Gender Gap in der IT generell und der künstlichen Intelligenz im Besonderen. Wenn Menschen zusammenkommen, die sehr ähnlich sind, dann werden sie gewisse Fragen nicht stellen, gewisse Risiken nicht sehen und gewisse Ziele nicht verfolgen. Das sehen wir auch in der KI“, sagt Eva Gengler, Doktorandin für feministische KI, Geschäftsführerin FemAI – Center for Feminist Artificial Intelligence, Vorständin Erfolgsfaktor FRAU e.V. und Mitgründerin der Orga- und IT-Beratung enableYou.
Die Norm ist der weiße Mann. Auch die Manager in Firmen, die entscheiden, wo künstliche Intelligenz eingesetzt wird, seien überwiegend männlich. „Das ist ein Problem, da Frauen deshalb nicht die Dienstleistungen bekommen, die sie vielleicht brauchen würden“, so Gengler. Lange bot zum Beispiel keine einzige Gesundheits-App Funktionen für die Menstruation an. Hinzu kommen die Daten. Gengler verweist auf eine große Geschlechter-Datenlücke, in vielen Bereichen fehlen Daten für Frauen oder sind falsch.
Frauen im Nachteil
Zum Beispiel in KI-gesteuerten Bewerbungsverfahren: So hat Amazon Bewerbungen mittels künstlicher Intelligenz vorfiltern lassen. Bewerbungen von Frauen wurden aussortiert, da der KI die bestehende – weitgehend männliche – Belegschaft als Muster zugrunde lag. Bei der Berechnung von Kreditwürdigkeit mittels künstlicher Intelligenz für seine Kreditkarte hat Apple Frauen einen niedrigeren Kreditrahmen einräumen lassen als Männern. Die Spracherkennungssoftware von Google erkennt männliche Stimmen mit 70 Prozent höherer Wahrscheinlichkeit als weibliche. Die Foto-App Lensa, die aus persönlichen Fotos künstlerische Porträts kreiert, erstellt stark sexualisierte Bilder mit Fokus auf Brüsten oder halb nackten Darstellungen. Die App ist mit Internetinhalten trainiert. „Unsere Gesellschaft ist sexistisch, patriarchalisch und rassistisch. Diese Strukturen und Denkmuster sitzen tief und beeinflussen, wo wir KI einsetzen, mit welchen Zielen und wen wir dabei vergessen“, sagt Gengler. Künstliche Intelligenz könne systematisch, unsichtbar und in großem Stil Menschen diskriminieren. Daten seien oft unvollständig, gewisse Teile der Bevölkerung fehlten oder menschliche Vorurteile steckten in den Daten. Das kann auch rassistische Folgen haben. So erkennt Gesichtserkennungssoftware dunkelhäutige Gesichtern schlechter. KI könne aber auch eine Chance sein, die Gesellschaft nachhaltig zum Besseren zu verändern, wenn mit diversen Daten trainiert wird. Gengler fordert deshalb eine feministische künstliche Intelligenz, die diskriminierte Menschen in den Fokus rückt.
Hier findet ihr den ganzen Beitrag: BEITRAG