Künstliche Intelligenz (KI) hat sich zu einer Schlüsseltechnologie entwickelt, die unser tägliches Leben – beruflich wie privat – immer stärker prägt. Oft bemerken wir gar nicht, wie sehr KI bereits Teil unseres Alltags ist. Auch in komplexeren Bereichen wie der Medizin, der automatisierten Auswahl von Bewerbungen, der Vergabe von Krediten oder der Analyse von Betrugsfällen wird sie zunehmend eingesetzt. Gerade in solchen sensiblen Anwendungsfeldern können die Folgen fehlerhafter oder unausgewogener KI-Entwicklung schwerwiegend sein.
Mit diesen weitreichenden Möglichkeiten gehen daher erhebliche Risiken einher, wenn KI nicht verantwortungsvoll und diversitätssensibel entwickelt wird.
Ein zentrales Problem ist die mangelnde Vielfalt in der KI-Entwicklung, sei es in den Daten, mit denen KI trainiert wird, oder in den Teams, die diese KI-basierten Produkte entwerfen.
Warum wir über KI-Systemfehler sprechen müssen
Die erste Antwort auf diese Frage lautet: Man muss es wollen oder verpflichtet sein, das zu tun.Unternehmen, unabhängig davon, ob sie KI-basierte Systeme entwickeln, implementieren oder anwenden, müssen von Anfang an (»by design«) folgende Aspekte berücksichtigen, die dazu beitragen, vertrauenswürdige KI-Systeme zu schaffen, die fair, transparent und inklusiv sind:
Diverse Teams
Vielfalt in Entwicklungsteams ist ein zentraler Faktor für vertrauenswürdige KI. Geschlechtervielfalt, kulturelle Vielfalt und interdisziplinäre Perspektiven können dazu beitragen, blinde Flecken zu reduzieren und Systeme zu entwickeln, die für eine breite Nutzerbasis geeignet sind.
Diversität in den Daten
Repräsentative und ausgewogene Trainingsdaten sind essenziell, um Verzerrungen zu vermeiden. Unternehmen müssen sicherstellen, dass die Daten nicht nur bestimmte Gruppen oder Perspektiven abbilden, sondern die gesamte Vielfalt der Gesellschaft repräsentieren.
Interdisziplinarität
Im Entwicklungsprozess eines KI-Modells haben wir in unserer Studie (siehe Leselinks) sieben Phasen identifiziert, die sowohl technische als auch nicht-technische Kompetenzen erfordern. Bereits in der ersten Phase, in der die Entwicklung mit der zentralen Fragestellung »Welche Bedarfe soll das Produkt adressieren?« beginnt, :, zeigt sich die Notwendigkeit eines interdisziplinären Ansatzes.
Die Entwicklung von KI-Modellen erfordert ein interdisziplinäres Team, dessen Zusammensetzung je nach Branche und Produkt variieren kann. Neben Programmierfachleuten, die statistisch immer noch überwiegend männlich sind, müssen daher auch weitere Professionen in den Entwicklungsprozess eingebunden werden, bei denen Frauen meist die Mehrheit stellen wie z. B. die Sozialwissenschaft, die Ethik, die Geisteswissenschaft, die Kommunikationswissenschaft oder die Psychologie.
Diese interdisziplinäre Zusammenarbeit ermöglicht eine umfassendere Betrachtung der möglichen Auswirkungen auf verschiedene gesellschaftliche Gruppen. Sie trägt dazu bei, KI-Produkte zu entwickeln, die nicht nur technisch einwandfrei, sondern auch sozial verantwortungsvoll sind und einer breiteren Zielgruppe gerecht werden.
Sollen wir ein System verändern, wenn es gesellschaftliche Werte und daher die »Realität« widerspiegelt?
Die Antwort ist eindeutig: Ja! Ursprünglich war die Idee hinter KI-Systemen, objektive und unvoreingenommene Entscheidungen zu treffen. Stattdessen sehen wir, dass KI-Systeme bestehende Biases verstärken. Aber: Weil KI-Systeme trainiert werden können, können sie auch einfacher »umtrainiert« oder angepasst werden als gesellschaftliche Strukturen oder als wir Menschen.
Diese Technologie bietet die Chance, eine gerechtere Gesellschaft zu schaffen – aber nur, wenn wir es aktiv wollen. Der EU AI Act könnte hier ein entscheidender Hebel sein, um Unternehmen zu verpflichten, vertrauenswürdige und faire KI-Systeme zu entwickeln. Über EU AI Act und die sogenannten Digital Literacy werde ich in meinem nächsten Blogbeitrag schreiben.
Sind Sie unsicher, ob Ihre KI-Systeme vertrauenswürdig sind?
Sind Sie sich unsicher, ob die von Ihren Mitarbeitenden entwickelten KI-Systeme vertrauenswürdig sind – im Sinne einer unverzerrten, fairen und sozial verantwortlichen Anwendung? Oder fragen Sie sich, ob die von Ihnen gekaufte KI-basierte Lösung tatsächlich zuverlässige und nicht verzerrte Ergebnisse liefert?
Melden Sie sich bei uns. Gemeinsam mit Ihnen identifizieren wir potenzielle Schwachstellen und entwickeln Maßnahmen, um sicherzustellen, dass Ihre KI-Produkte allen Nutzerinnen und Nutzern gerecht werden und den höchsten Standards entsprechen.
-
Leselinks:
- Studie: Frauen im Bereich Künstliche Intelligenz: Rollen, Potenzialentfaltung und Unternehmensstrategien
- Verborgene Diskriminierung in mehrstufigen Einstellungsverfahren: Eine Analyse (Teil 1) – Fraunhofer IAO – BLOG
- Die Achilles-Ferse der KI-Regulierung: Diskriminierungsschutz bei Hochrisiko-Systemen – Fraunhofer IAO – BLOG
Kategorien: Digitalisierung, Künstliche Intelligenz, Nachhaltigkeit
Tags: Bias, Frauenrepräsentanz, KI und Diskriminierung, vertrauenswürdige KI-Modelle
Hinterlasse einen Kommentar