Mit dem jüngsten Schwung der „Strategie der Bundesregierung für künstliche Intelligenz 2030“ hat sich die österreichische Regierung das Ziel gesetzt, unter anderem auch die Rahmenbedingungen einer vertrauensvollen KI mitzugestalten und dabei sowohl ethische Grundprinzipien als auch rechtliche Rahmenbedingungen zu schaffen, um den langfristigen und sinnstiftenden Einsatz von KI Lösungen zu ermöglichen. Das Themenfeld ist nicht neu, mit dem AIA (Artificial Intelligence Act) hat die Europäische Kommission einen Vorschlag vorgelegt, der sich mit der Klassifizierung (und dem teilweisen Verbot) von intelligenten Anwendungen beschäftigt und dabei Mensch und Moral ins Zentrum der Diskussion stellt. Man möchte dabei schon zu Beginn der Technologieentwicklung ein Rahmenwerk schaffen, welches Diskriminierung, Bias und der Beschneidung von Chancengleichheit entgegenwirkt, damit langfristig viele Menschen gleichermaßen von Anwendungen der KI profitieren können. Überraschenderweise hat sich auch die CAC (Cyberspace Administration in China) dazu entschlossen, dass dies ein notwendiger Schritt ist, um ethische Behandlung sicherstellen zu können und damit entsprechende regulatorische Rahmenwerke vorgelegt. 

KI ist nicht neu, warum beschäftigt man sich jetzt erst mit ethischen Aspekten? 

In den 50er Jahren des letzten Jahrhunderts, als der Begriff „künstliche Intelligenz“ erstmals auf einer Konferenz in Dartmouth geprägt wurde, war man der Ansicht, dass es nicht mehr als 10 Jahre dauern würde, bis die Technologie ein Level an menschlicher Intelligenz erreicht. Leider wurde den Forschern schnell klar, dass Dinge, die für Menschen einfach waren, wie das Erkennen von Farben und Formen, Zusammenhängen, Abstraktion, sich für Maschinen und Algorithmen als wesentlich herausfordernder darstellten. Vor allem mangelte es aber an praktikabler Hardware und Rechenleistung, um die mathematischen Modelle, die man entwickelt hatte  anwendungsfähig zu machen und damit einer breiten Masse zur Verfügung zu stellen. Denn vor allem das Konzept der neuronalen Netze, also jene Technologie, die heute flächendeckend zum Einsatz kommt, ist bereits 60 Jahre alt und konnte erst in den letzten Jahren ihr Potential entfalten – und machte damit viele KI-Anwendungen erst möglich. 

AI ist unbestritten eine Technologie der Zukunft. Sie könnte weltweit bis zum Jahr 2030 mehr als 15 Billionen US-Dollar zur globalen Wertschöpfung beitragen und vielen Unternehmen aber auch Privatpersonen helfen ein besseres Leben zu führen. Wir sehen schon heute eine breite Palette an Anwendungsgebieten, die von medizinischer Diagnostik, zur automatischen Steuerung von Maschinen bis hin zu Recruiting Prozessen und intelligenten, digitalen Coaches, die sich um psychische Gesundheit kümmern, reichen. Aus aktueller Sicht wird künstliche Intelligenz in den nächsten Jahren tiefgreifend unseren Alltag verändern. Wie wir arbeiten, wie wir Entscheidungen treffen, welche Berufe sich Mensch und Maschine teilen werden, aber auch wie wir Medien konsumieren, auf unsere Gesundheit Einfluss nehmen und zwischen Orten pendeln. 

Warum ist vertrauensvolle und ethische KI wichtig?

Mit dem Fortschreiten der Technologie tun sich auch neue Herausforderungen auf. In vielen Bereichen ist die KI noch eine „black box“, sprich wir können nur schwer nachvollziehen, wie sie zu ihren Entscheidungen kommt, da oftmals abertausende Faktoren (und mehr oder weniger verzerrte, mit Bias behaftete Daten) in diesen Prozess miteinbezogen werden und es für Menschen so gut wie unmöglich ist, dies zu erfassen. Das bringt uns besonders in Bereichen, in denen lebensrelevante Entscheidungen getroffen werden, wie Kreditvergaben, Karrierechancen, Diagnostik,… in problematische Situationen. Denn wir können von außen nicht mehr beurteilen, ob die Maschine „fair“ entschieden hat. Und dabei stellt uns allein die Definition von „fair“ schon vor spannende Fragen: Fairness in der Behandlung oder im Outcome? Was ist, wenn unsere Realität bereits unfair ist? (Wir erinnern uns an das Debakel des AMS Algorithmus, welcher Frauen in den Förderquoten massiv benachteiligt hatte) Korrigieren wir diesen verzerrten Alltag dann in unseren Daten und Algorithmen, wer entscheidet darüber, welche Realitätskonstruktion dann die „richtige“ ist, welche zur Anwendung kommen sollte? 

Technologie lehrt uns immer auch etwas über uns selbst. Über unser Weltverständnis, über unsere Grenzen, über das was wir bereits sind zu tolerieren, zu akzeptieren und auch, wer wir sind uns sein können. Mit dem Einsatz von KI Technologie sind plötzlich viele soziale Strukturen und Entscheidungsprozesse offengelegt worden, denen wir uns oftmals gar nicht bewusst sind. Je mehr wir uns dessen klar werden, desto besser können wir dem entgegensteuern und damit verantwortungsvolle Systeme schaffen, die für die Gesellschaft eine Bereicherung und keine Gefahr sind. 

Welche Prinzipien und Anforderungen sollten wir dabei beachten? 

Viele Menschen, Regierungen und Organisationen – selbst der Vatikan – haben sich zu Prinzipien und Anforderungen für verantwortungsvolle KI bereits Gedanken gemacht und viele Überlegungen und Guidelines dazu entwickelt, das Thema diskussionsfähig zu machen. Die High-Level-Expert Group (HLEG) brachte z.B. 2019 ihre Ethik Leitlinien heraus, und hat dabei 3 Bereiche in den Fokus gestellt: Rechtmäßige KI (Gesetzlichen Rahmenbedingungen), Ethische KI und Robuste KI, welche sich auf 7 Anforderungen an vertrauensvolle KI herunterbrechen lassen: 

  • Technische Robustheit und Sicherheit
  • Datenschutz und Datenqualitätsmanagement
  • Transparenz
  • Vielfalt, Nichtdiskriminierung und Fairness
  • Gesellschaftliches und ökologisches Wohlergehen
  • Rechenschaftspflicht 
  • Vorrang menschlichen Handelns und menschliche Aufsicht

In der Praxis hilft es dabei häufig sich folgende Fragen zu stellen, um entlang der KI Entwicklung das Thema immer im Auge zu behalten: 

  • (Wie) kann faire, biasfreie Algorithmen und Datengrundlagen geschaffen werden? 
  • Wie können diese Entscheidungen erklärbar gemacht und richtig interpretiert werden? 
  • Wie schützen wir die Privatsphäre? 
  • Sie schützen wir Daten und Algorithmen vor Missbrauch?
  • Wie machen wir Anwendungen sicher für die Gesellschaft? 
  • Wie können wir robuste Systeme schaffen, die keine negativen Effekte oder Schaden produzieren? 
  • Handeln wir moralisch richtig? Würden wir diesen Umgang oder diese Entscheidungsarten auch für uns selbst wollen? 
  • Welche ethischen Prinzipien und Werte wollen wir verfolgen? 
  • Wo und wie müssen wir Fairness schaffen und wie machen wir das transparent?
  • Wie sorgen wir dafür, dass interne und externe Prozesse zu Qualitätssicherung und Angemessenheit eingehalten und durchgeführt werden? 
  • Welchen Regularien und Gesetzen müssen wir entsprechen? 

Wer sollte diese ethischen Entscheidungen treffen? 

Generell kann es keine Entscheidung eines einzelnen sein und manche Fragen werden durchaus auch öffentlichen Diskurs benötigen. KI Anwendungen werden häufig von einer Vielzahl an Personen entwickelt, welche alle Verantwortung für ihr Tun und ihre Entscheidungen übernehmen müssen. Das betrifft Designer genauso wie Softwareentwickler, den Machine Learning Experten genauso wie den Produktmanager. Sie alle sind dafür verantwortlich darauf zu achten, dass kein Schaden angerichtet wird, dass Daten möglichst verzerrungsfrei sind, dass User nicht in mit der Hilfe von Dark Patterns zu Entscheidungen „genudged“ werden, die sie so nicht treffen würden, dass Vorgehensweisen wo immer möglich mit einer gewissen Transparenz (explainable ai) ausgestattet werden, um dem User verständlich zu machen, was gerade geschieht. 

Auch gibt es nicht nur im Design der Algorithmen und Anwendungen, sondern auch den verwendeten Daten und Berechnungen einen Aspekt, der häufig vernachlässigt wird: Das Training von KI braucht immense Ressourcen. Allein das aktuell beste Modell, GPT-3, verbraucht die gleiche Menge an Energie zum Training wie 126 dänische Haushalte in einem Jahr. Wenn wir uns vor Augen halten, dass KI Anwendungen – auch in Kombination mit IoT Devices und 5G Technologien – tendenziell mehr und nicht weniger werden, gibt es auch hier eine Verantwortung zum klugen Einsatz von (Hardware) Ressourcen, die wahrgenommen werden und Zusammenhänge ganzheitlich betrachtet werden sollten. Denn nur so können wir Vertrauen zu dieser Technologie aufbauen und sie auch langfristig gewinnbringend einsetzen.

KI birgt für uns alle immense Möglichkeiten und es liegt an uns sie schon jetzt so zu designen, dass sie zum Mehrwert der Gesellschaft eingesetzt werden kann.

 

                                                                                                                      Autorin: Bernadette Fellner,
                                                                                                                                             Digital Consulting

 

Weitere Infos auch unter: https://www.pwc.com/gx/en/issues/data-and-analytics/artificial-intelligence/what-is-responsible-ai.html 

Quellen:  

https://op.europa.eu/de/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1 

https://www.bmdw.gv.at/Themen/Digitalisierung/Strategien/Kuenstliche-Intelligenz.html 

https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206 

https://www.dataguidance.com/news/china-cac-request-public-comments-draft-algorithm