KI und Diskriminierung – die Moral in der Maschine
Die Trennlinie zwischen online und offline wird immer dünner. Wir sind permanent mit unserer Umwelt in Verbindung, unser Alltag wird zunehmend digital. Dabei interagieren wir mit Maschinen und künstlicher Intelligenz und vertrauen auf Ethik und Moral. Doch können Maschinen moralische Werte haben und, wenn ja, woher kommt jene dann?
Unsere Welt befindet sich in einem stetigen Wandel und die Digitalisierung schreitet im Eiltempo voran. Was gestern noch der neueste Stand der Technik war, kann heute schon wieder durch einen schnelleren Algorithmus oder eine effizientere Software ersetzt werden. Es scheint, als würde sich die digitale Welt selbst im Auge der digitalen Nomaden sehr schnell drehen.
Wie künstliche Intelligenz Entscheidungen trifft
Die Digitalisierung ist ein wesentlicher Treiber des Wohlstands. Sie beschleunigt Prozesse, maximiert die Wertschöpfung und ermöglicht datenbasierte Entscheidungen. Wird dieses Problemlösungsverhalten automatisiert, spricht man von künstlicher Intelligenz, worauf die dahinterliegende Entscheidungsfindung basiert. Hier wird zwischen heuristischen Methoden, künstlichen neuronalen Netzen und genetischen Algorithmen unterschieden.
Heuristische Methoden beruhen auf unscharfer Logik und dem Erkennen von Merkmalen, oft eingesetzt in Virenprogrammen. Künstliche neuronale Netze hingegen sind parallel verbundene Netzwerke aus adaptiven Elementen, die mit ihrer Umgebung in derselben Weise interagieren wie z.B. biologische Nervensysteme. Durch die Weiterleitung der Informationen über künstliche Synapsen sind sie in der Lage zu lernen, wobei diese Art des Lernens unter anderem in der Sprach- und Gesichtserkennung angewandt wird. Genetische Algorithmen bedienen sich der Problemlösungsmethoden aus der Evolutionsbiologie, nach Darwins Diktum „Survival of the fittest“ – das Überleben des am besten angepassten Organismus.
Die Moral in der Maschine und soziale Implikationen
Die Entscheidungen der Algorithmen basieren auf den Daten, mit denen sie gefüttert werden. Nicht selten bestehen diese Daten aus historischen Informationen, die wiederum ein soziales Verhalten in einem bestimmten Zeitraum widerspiegeln. Die darin verborgenen Vorurteile, Werte und Meinungen werden so in die künstliche Intelligenz einprogrammiert. Soziale Komponenten können nicht von der Technik getrennt werden, sie werden zum Bestandteil der künstlichen Intelligenz.
In einer Zeit, in der das Recruiting von Human Capital durch Entscheidungen einer KI maßgeblich beeinflusst wird, sollten Ethik und Moral keine Frage des Zufalls sein. Jedoch zeigen die Ergebnisse einer Untersuchung von Joy Adowaa Buolamwini am Massachusetts Institute of Technology (MIT) zu Gesichtserkennungsprogrammen signifikante Diskriminierung von Frauen und Menschen mit dunkler Hautfarbe. Während Männer mit weißer Hautfarbe zu 100% vom Algorithmus verarbeitet wurden, lag dieser Wert bei Frauen mit weißer Hautfarbe bei 93% und bei Frauen mit dunkler Hautfarbe bei 77%.
Eine weitere Studie des Bonner Institut der Zukunft der Arbeit (IZA) aus dem Jahr 2016 legte offen, dass eine fiktive Kopftuchträgerin mit türkischem Namen bei gleicher Qualifikation bis zu 7,6-mal so viele Bewerbungen aussenden muss wie eine Frau mit deutschem Namen und ohne Kopftuch, um zu einem Bewerbungsgespräch eingeladen zu werden.
Die dahinterstehenden Algorithmen lernen aus bestehenden Datensätzen, in diesen Fällen aus Bewerbungen der Vergangenheit. Waren in dieser Branche hauptsächlich weiße Männer oder Frauen vertreten, werden diese auch vom Algorithmus des HR-Tools bevorzugt.
Die künstliche Intelligenz selbst ist nicht diskriminierend. Daten, die durch historische moralische Werte und Moral geprägt sind, können den Algorithmus jedoch zu einer diskriminierenden Entscheidung führen. Maschinen treffen per se keine ethischen oder unethischen Entscheidungen, sie führen mathematische Berechnungen aus.
Fazit: Der Mensch in der Gleichung
Sozialer Fortschritt kann nicht durch künstliche Intelligenz gefördert werden, die auf vergangenen Vorstellungen von Ethik und Moral beruht. Es bedarf der Verantwortung, die Entscheidungen der künstlichen Intelligenz auf die Wertevorstellungen der Gegenwart anzupassen und stets kritisch zu hinterfragen, ob diese den Anforderungen zu sozialem Fortschritt entsprechen. Ein Zusammenspiel von Mensch und Maschine ist notwendig, um in eine Zukunft zu schreiten, in der die Werte und Normen der Gesellschaft bewahrt und zum Besten weiterentwickelt werden können.
Autorin: Sandra Waldl
Quellen:
Volker Wittpahl, 2019: Künstliche Intelligenz – Technologie / Anwendung / Gesellschaft
Joy Adowaa Buolamwini, 2017: Gender Shades: Intersectional Phenotypic and Demographic Evolution of Face Datasets and Gender Classifiers
Doris Weichselbaumer, Johannes Kepler University Linz an IZA, 2016: Discrimination against Female Migrants Wearing Headscarves