Künstliche Intelligenz – ein Paradigma wissenschaftlicher Verantwortung(-slosigkeit)

„Die Entwicklung Künstlicher Intelligenz könnte entweder das Schlimmste oder das Beste sein, was den Menschen passiert ist.“
– Stephen Hawking (1942–2018)

Mit diesen Worten warnte der berühmte Physiker Hawking vor der neuen revolutionären technologischen Entwicklung auf der Web-Summit 2017 in Lissabon. Künstliche Intelligenz (KI) – ihre Entwicklung und ihr zukünftig geplanter Einsatz scheinen die Wissenschaft, die Politik und die Öffentlichkeit zu polarisieren. Seit Jahren wird sie in Science-Fiction-Filmen für die Darstellung apokalyptischer Endzeitszenarien und Dystopien instrumentalisiert, dabei besteht eine offensichtliche technikskeptische Tendenz, welche die irreversiblen und destruktiven Konsequenzen dieser Technik hervorhebt. Vor diesem Hintergrund scheint der Begriff „Künstliche Intelligenz“ an sich für viele bereits negativ geladen und vorbelastet zu sein, zumal es oft assoziativ für den Kontrollverlust und das damit einhergehende Gefühl des Ausgeliefert-Seins steht. KI wurde bisher fast ausschließlich in dem Kontext dieser technikdeterministischen Zukunftsvisionen und Katastrophenszenarien thematisiert. Überwachung und Kontrollverlust sind wiederkehrende elementare Aspekte, die seit Orwell und Huxley zentral für die Bedrohung des Endes der Menschheit bzw. des Menschseins stehen. Der umfassende Einsatz von KI in unterschiedlichen Arbeits- und Lebensbereichen und vor allem der damit befürchtete Verlust an Arbeitsplätzen navigiert den bisherigen öffentlichen Diskurs bezüglich der KI.

In diesem Kontext erfährt auch die Technikfolgenabschätzung eine zunehmende Bedeutung, da mit der KI oft eine Emanzipierung der intelligenten Systeme und daraus resultierende irreversiblen Folgen befürchtet wird. Hierbei trägt das Prinzip der Verantwortung seitens der Wissenschaft eine zentrale Bedeutung. Denn geplant wird eine zunehmende Delegation von intelligenten Tätigkeiten an Maschinen (vgl. Brockman 2017: 534). An dieser Stelle gilt der von Armin Grünwald initiierte Diskurs bezüglich Technikethik als äußerst signifikant, denn diese umfasst die „ethische Reflexion auf die Bedingungen, Zwecke, Mittel und Folgen des technischen Fortschritts“ (Grunwald 2009). In diesem Zusammenhang bilden Technikkonflikte mit ihren moralischen Implikationen wichtige Ansatzpunkte und Problemkonstellationen, die dabei neben der Entwicklung und Nutzung von gewissen Technologien auch darauf basierende Zukunftsvorstellungen, Menschenbilder und Gesellschaftsentwürfe umfassen (Gethmann/Sander 1999). Zumeist fungieren neue Techniken, Technologien oder Großtechnologien als Untersuchungsgegenstände für die Technikfolgenabschätzung, die entweder moralische Fragen aufwerfen, zu deren Beantwortung die gesellschaftlichen Üblichkeiten nicht ausreichen, oder die zu moralischen Konflikten führen.

Doch im Kontext der KI ist die Frage nach Verantwortung von zentraler Bedeutung. Wer wird die Verantwortung tragen, wenn Dinge schiefgehen, wenn autonome Autos Unfälle verursachen, wenn Profiler-Algorithmen ethnische Minderheiten in ihren Kriminalitätsprognosen diskriminieren, wenn Menschen zum übermäßigen Konsum manipuliert werden?

Die Ausführung von aufwändigen Tätigkeiten seitens intelligenter Systeme für effizientere Prozessabläufe scheint sich zwar im ersten Moment harmlos anzuhören. Doch die Verantwortung, die damit einhergeht, scheint im Rahmen der KI bisher missachtet zu bleiben und somit eine Verantwortungslücke zu erweisen. Denn im Gegensatz zu Maschinen trägt der Mensch eine moralische Verantwortung für sein Handeln und kann gegebenenfalls dafür zur Rechenschaft gezogen werden. Doch während die menschliche Intelligenz zu autonomer Bearbeitung gewisser Aufgaben an Maschinen übertragen werden kann, ist die Übertragung der damit einhergehenden Verantwortung und moralischen Pflicht komplizierter als gedacht. Die moralische Urteilskraft ist zu abstrakt und intuitiv, um in eine Maschine einprogrammiert werden zu können, daher erscheint die Moralisierung der KI zunächst nicht realisierbar (vgl. Lenzen 2018: 144).

Zudem sind die negativen Folgen oft nicht ganz kalkulierbar und selbst abstrakte dystopische Vorstellungen eines Superalgorithmus lassen sich nicht konkret ausschließen. Ausgelöst wird dieser Alarmismus von den Informationsasymmetrien, die zwischen dem Nutzer und den intelligenten Systemen herrschen und der daraus resultierenden Intransparenz der Prozessabläufe innerhalb der Systeme (vgl. Hagendorff 2017: 122). Oft wird in diesem Zusammenhang auch die tatsächliche Intelligenz dieser intelligenten Systeme vom Nutzer durchaus überschätzt, wodurch auch das Gefühl des Ausgeliefert-Seins suggeriert wird.

Dabei stellt sich die Frage, inwieweit die Wissenschaft tatsächlich eine Verantwortungsbereitschaft im Kontext der Entwicklung der KI aufweisen kann, insbesondere mit Rücksicht auf den militärischen Ursprung der KI-Forschung. Inwiefern könnten Wissenschaftler einer möglichen Zweckentfremdung der KI für destruktive Ziele entgegensteuern oder bereits in der Entwicklungsphase diesbezüglich Maßnahmen ergreifen? Vor allem im Bereich der KI ist die menschliche Kontrollierbarkeit und Steuerbarkeit oft umstritten und die Möglichkeit, dass sie sich der menschlichen Kontrolle entzieht, kann nicht ganz ausgeschlossen werden. Daher erscheint die Verantwortbarkeit der Entwicklung dieser Technologie, deren negative Konsequenzen und Folgeerscheinungen als undurchschaubar und unkalkulierbar bezeichnet werden, seitens der Wissenschaft und Forschung äußerst kritisch und lückenhaft. Die ultimative Frage lautet: „Wie bringt man Maschinen dazu, so zu agieren, dass dies mit unseren Moralvorstellungen übereinstimmt?“ (vgl. Lenzen 2018: 142).

Dafür bedarf es der Vergegenwärtigung, dass es immer noch Menschen sind, die KI entwickeln. Denn Wissenschaftler und Bürger verfügen gemeinsam über die Macht diese Entwicklung in eine bestimmte moralbewusste Richtung zu lenken. Ein wegweisender Ansatz in diese Richtung ist das Moral Machine Experiment (vgl. Awad et al. 2018). Hierbei wurden anhand eines Serious Game diverse moralische Präferenzen aus verschiedenen Ländern weltweit gesammelt. Hiermit sollte dem Nutzer ermöglicht werden, die Moralvorstellungen der Maschine der geografischen oder demografischen Zuordnung entsprechend zu wählen. Dies war ein Versuch dem Vorbehalt der mangelnden universalen Moral zur moralischen Programmierung der Maschinen entgegenzukommen. Denn das Experiment ambitionierte einen öffentlichen Diskurs bezüglich moralischer Vorstellungen, der die geografisch oder demografisch auftretende Differenzen nicht als Hürde, sondern als Chance für eine einheitliche Durchsetzung moralischer Werte erfasst (vgl. ebd.: 63). Da Maschinen im Gegensatz zu Menschen ausnahmslos den Regeln folgen, zur dessen Verfolgung sie programmiert wurden, lassen sie sich dabei nicht spontan von Impulsen, Gefühlen oder Instinkten verleiten.

Ein weiterer Schritt in diese Richtung fand in der vom Future-of-Life-Institute im Jahre 2017 organisierten Asilomar-Konferenz statt, hierbei wurde ein Leitfaden für eine wohltätige Entwicklung der KI-Forschung niedergeschrieben (vgl. Future of Life Institute 2017). In der Konferenz kamen viele führende und einflussreiche Größen der KI-Forschung wie Elon Musk und Eric Schmidt zusammen, wodurch die Konferenz auch eine mediale Aufmerksamkeit erfuhr. Dies markierte den ersten Schritt der KI-Forschung im Hinblick auf die Entwicklung der KI anhand moralischer Richtlinien. Dennoch kristallisierte sich auch in diesem Rahmen ein mangelnder Konsens über zukünftige Gefahren der KI heraus (vgl. Lenzen 2018: 245).

Insbesondere im Kontext des militärischen Einsatzes von KI anhand intelligenter Waffen und autonomen Drohnen ist die Frage nach der Moral äußerst bedeutend. Selbst der Akt des Tötens könnte durch die Entpersonalisierung und Automatisierung, die diese intelligente Technik ermöglicht, der Verantwortung entzogen werden. Letztlich impliziert eine Entscheidung auch zugleich eine Verantwortung über dessen Folgen und Konsequenzen. Doch wenn wir Maschinen die Entscheidung über menschliches Leben lassen, wird die Kluft zwischen Ethik und Technik nicht mehr zu überbrücken sein. Hierbei kommt der Wissenschaft eine große Verantwortung zu, da sie die Forschung und Entwicklung an intelligenten und autonomen Waffentechnologien zurückweisen oder zumindest einschränken könnten. Denn sobald diese Technologien entwickelt werden, ist die Wahrscheinlichkeit, dass sie ungenutzt bleiben, sehr gering (vgl. Bauman/Lyon 2013: 110). Dennoch ist die Situation nicht ganz so aussichtslos wie sie häufig dargestellt wird. Die Entscheidungsgewalt über Leben und Tod wird nicht an Maschinen delegiert, denn die Algorithmen, die darüber entscheiden, werden von Menschenhand programmiert. „Auch wenn sie lernen, lernen sie nach Regeln, die von Menschen bestimmt wurden“ (Grunwald 2018). Die Verantwortung bleibt und sollte auch zukünftig beim Menschen bleiben, nur wird dies in Zukunft im Kontext der KI eine unterschiedliche Akteurskonstellation und Prozessdynamik annehmen müssen.

Somit stehen wir im Bereich der KI vor einer großen Herausforderung in Bezug auf Moral, Verantwortung, Datenschutz, Sicherheit und Freiheit (vgl. Lenzen 2018: 159). Die Öffentlichkeit scheint im Hinblick auf die Gegenwart der KI vom Alarmismus und daraus resultierenden dystopischen Vorstellungen der Autonomie und Kontrollverlusten geplagt zu sein. Daher sind die Forderungen nach gemeinwohlorientierter Regulierung der Technikentwicklung seitens Politik und Recht nicht überraschend. Schließlich bedarf die Wahrung moralischer Grundsätze in der Zukunft der KI einer erfolgreichen Kooperation zwischen Politik, Gesellschaft und Wissenschaft, die sich gemeinsam um eine gemeinwohlorientierte Technikentwicklung bemühen. Denn wenn das Streben nach technischem Fortschritt die Ethik und Moral besiegt, wird die Entwicklung der KI alles andere als das Beste sein, was den Menschen je passiert ist.

 


Quellen

Awad, E.; Dsouza, S; Kim, R.; Schulz, J.; Henrich, J.; Shariff, A.; Bonnefon, J.-F.; Rahwan, I. (2018): The Moral Machine experiment. In: Nature. 563(7729). S. 59–64.

Bauman, Z.; Lyon, D. (2013): Daten, Drohnen, Disziplin. Ein Gespräch über flüchtige Überwachung. Berlin: Suhrkamp, 4. Auflage 2018.

Brockman, J. (Hg.) (2017): Was sollen wir von Künstlicher Intelligenz halten? Die führenden Wissenschaftler unserer Zeit über intelligente Maschinen. Frankfurt am Main: Fischer Taschenbuch.

Future of Life Institute (2017): Die KI-Leitsätze von Asilomar. Online verfügbar unter: https://futureoflife.org/ai-principles-german/ [Zugriff: 01.11.2019].

Gethmann, C. F.; Sander T. (1999): Rechtfertigungsdiskurse. In: Grunwald A. et al. (Hg.): Ethik in der Technikgestaltung. Berlin: Springer Verlag. S. 117–151.

Grunwald, A. (2009): Zum Handlungsbegriff in Technikphilosophie und Technikethik. In: www.widerstreitsachunterrricht.de, Ausgabe 12, März 2009.

Hagendorff, T. (2017): Das Ende der Informationskontrolle: Zur Nutzung digitaler Medien jenseits von Privatheit und Datenschutz. Bielefeld: transcript Verlag.

Lenzen, M. (2018): Künstliche Intelligenz. Was sie kann & was uns erwartet. München: C.H. Beck.