Warum KI verantwortungsvoll gestaltet werden muss

Wissenschafts­jahr 2019: Künstlicher Intelligenz
Wissenschafts­jahr 2019: »Künstlicher Intelligenz« Die Arbeitswelten der Zukunft werden entscheidend von der Entwicklung Künstlicher Intelligenz geprägt sein. Das Wissenschaftsjahr 2019 wird sich mit den Chancen und Herausforderungen dieser Technologie auseinandersetzen.

Digitale Ethik – Teil 2

Im Kontext der Digitalisierung und bei der Entwicklung neuer Technologien wie »Künstliche Intelligenz« (KI) stellen sich verstärkt ethische Fragestellungen. Um eine Vorstellung von den weitreichenden ethischen Implikationen zu gewinnen, ist es wichtig die unterschiedlichen Anwendungsbereiche für KI-Systeme in den Blick zu nehmen. Daher stellen wir in diesem Beitrag einige konkrete Beispiele vor, die bereits in der Öffentlichkeit diskutiert werden.

  • Recruiting: Amazons KI-System zur Auswahl neuer Mitarbeitenden diskriminierte Frauen und bewertete ihre Bewerbungen systematisch schlechter als jene von Männern. Amazons Versuche diesen bias wieder loszuwerden scheiterten, so dass das System letztlich ganz eingestellt werden musste. Was bedeutet es also, faire Algorithmen zu entwickeln? Und wie können wir gerade in Personalgewinnungsverfahren das Potenzial von KI nutzen, um fairere Verfahren ohne menschliche Voreingenommenheit und (unbewusstes) Bevorzugen zu ermöglichen?
  • Justiz: In den USA setzten Gerichte das KI-System COMPAS ein, um die Rückfallrisiko von Straftäterinnen und Straftätern zu bewerten. Auch hier wies das System einen unfairen bias auf, indem es Afroamerikanern fälschlicherweise eine doppelt so hohe Rückfallgefahr berechnete wie bei Weißen. Abgesehen von unfairen rassistischen Diskriminierungen: wollen wir überhaupt wirklich KI-Systeme in gerichtlichen Entscheidungsprozessen einsetzen?
  • Chatbots: Chatbots können in unterschiedlichen Branchen eingesetzt werden, vom Kundenservice bis hin zur medizinischen Beratung. Google Duplex hat hier kürzlich gezeigt, wie ein solches KI-System eigenständig Anrufe tätigen kann. Problematisch allerdings wird es, wenn wir nicht mehr unterscheiden können, ob wir mit einem Menschen oder einer Maschine kommunizieren. In Kalifornien (USA) wurde dazu beispielsweise entschieden, dass Chatbots sich in Zukunft als solche zu erkennen geben müssen. Aber wie? Und wofür sollte das alles gelten?
  • Bilderkennung: Fortschritte in der Bilderkennung durch KI bringen enorme Chancen. Zugleich stellen sich wichtige rechtliche und ethische Fragen: Ist eine Gesichtserkennung an öffentlichen Plätzen verhältnismäßig? Sollte Werbung über Gesichtserkennung personalisiert werden? In der Medizin kann KI in der Bilderkennung dabei unterstützen bessere und frühzeitig Diagnosen zu stellen. Aber wie gehen wir mit solchen Informationen überhaupt um, welche fachärztliche Einschätzung ist dann noch oder verstärkt von Nöten? Und wie verändert sich dadurch der Arzt-Beruf? Und was, wenn Algorithmen anfangen, Psychosen oder sogar den Tod vorauszusagen?
  • Arbeitsmarktservice Österreich: Um die Ressourcen in der Arbeitsmarktpolitik effizienter einzusetzen, hat der Arbeitsmarktservice in Österreich einen Algorithmus entwickelt, der Arbeitslose ab 2019 in drei Gruppen einteilt. Entscheidend dabei ist die Wahrscheinlichkeit, in einem bestimmten Zeitraum eine gewisse Anzahl an Beschäftigungstagen vorweisen zu können. Inwiefern kann eine solche sensible Eingruppierung von Menschen fair sein, wenn danach beispielsweise Weiterbildungsmöglichkeiten oder andere Unterstützungsmaßnahmen entschieden werden? Und welche Faktoren sollten bei der Beurteilung überhaupt eine Rolle spielen? Was ist die Gefahr von strategischem Verhalten der Betroffenen, um den Algorithmus gezielt auszunutzen? Und welche Rolle spielen dann die AMS-Berater, sind vielleicht neue Fähigkeiten wichtig?
  • Industrie 4.0: Der Einsatz von KI-Systemen spielt auch in der Produktion im Kontext von Industrie 4.0 eine immer wichtigere Rolle, beispielsweise im Hinblick auf Cyber-Physische Systeme (CPS) oder ein Industrial Internet of Things (IIoT). Durch neue Prozesse und Arbeitsumgebungen stellen sich jedoch auch wichtige ethische Fragen an die Kollaboration zwischen Mensch und Maschinen. Welche (persönlichen) Daten werden erfasst, bspw. zu Arbeitsabläufen über Kameras oder andere Sensoren? Wie werden solche Daten verarbeitet, gesichert und wer hat Zugriff darauf? Werden sie bei der nächsten Personalentscheidung zu Rate gezogen? Und unter welchen (ergonomischen) Bedingungen sind einzelne Tätigkeiten dem Menschen überhaupt noch zumutbar, wenn alle umgebende Arbeitsschritte bereits völlig automatisiert sind? Wie kann sichergestellt werden, dass Automatisierung von Arbeitsabläufen nicht auch zu Überwachung von Mitarbeitenden wird? Und welche neuen Fähigkeiten brauchen die Mitarbeitenden, um sich selbst überhaupt anpassen und entsprechend weiterentwickeln zu können?

Diese Beispiele verdeutlichen die Bedeutung verantwortungsvoller Technologieentwicklung und Innovationsprozesse. Am Center for Responsible Research and Innovation des Fraunhofer IAO haben wir dafür einen Ansatz von Responsible Innovation entwickelt, wie ethische Fragen bereits während der Technologieentwicklung adressiert werden können. Aus unserer Perspektive ermöglicht dies wichtige ethische Debatten, nicht erst im Nachhinein und anhand von bereits vorliegenden Lösungen und Geschäftsmodellen zu führen. Zudem können so neue Perspektiven und Innovationspotenziale entdeckt und nutzbar gemacht werden. Für uns ist daher die Verschränkung von Ethik und Innovation eine zentrale Aufgabe unserer Zeit.

Wenn Sie mehr darüber erfahren möchten, empfehlen ich Ihnen meinen ersten Blogbeitrag »Responsible Innovation und KI: neue Innovationspotenziale entdecken« . Oder sprechen Sie uns einfach an!

Leselinks:

Kommentar hinzufügen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.