Suche
  • Sven Wilms

Maschinenethik - ein Thema ohne festen Boden

Heute wollen wir Ihnen nicht weitere Informationen über Neuronale Netze, Deep Learning und weitere Methoden sowie technische Aspekte im Kontext KI vorstellen, sondern ein Thema ansprechen, das uns in Zukunft stark beschäftigen wird und das erst am Entstehen ist: Die Maschinenethik.

Die wachsende Verfügbarkeit von Daten einerseits und die zunehmende Autonomie der Maschinen im Alltag andererseits ermöglichen heute den Wandel technischer Geräte von reinen Werkzeugen „in der Hand des Menschen“ zu selbstständigen, maschinellen Akteuren. Nicht zuletzt mit der Entwicklung autonomer Fahrzeuge und Pflegerobotern und durch die stetige Verbesserung der künstlichen Intelligenz rücken auch moralische Fragen immer stärker in den Fokus des gesellschaftlichen Interesses.

Wie soll sich eine autonome Maschine in einem moralischen Dilemma verhalten und wer ist für das Ergebnis einer autonomen, maschinellen Entscheidung verantwortlich, wenn kein Nutzer und kein Hersteller diese Handlung programmiert oder angeordnet hat? Wie und wo sollten autonome Maschinen zum Einsatz kommen und welche Sicherheitsvorkehrungen müssen bei ihrer Entwicklung getroffen werden? Dies sind Fragestellungen, mit denen sich die Maschinenethik beschäftigt.


Von diesen Fragestellungen sind alle Arten von Maschinen betroffen, die in ihren Anwendungsbereichen bereits jetzt schon autonom agieren. Das reicht vom Geldautomaten oder autonomen Staubsaugern, deren Handlungsspielräume verhältnismäßig überschaubar und ethische Dilemmata daher schon bei der Programmierung und dem Design relativ leicht vorherzusagen sind, bis zum Pflegeroboter, der aufgrund der Komplexität seines Aufgabenbereiches in der Lage sein muss, eine Vielzahl von ethisch bedeutsamen Faktoren in Situationen zu berücksichtigen, von denen wahrscheinlich nicht alle von ihren Designern vorhergesehen werden können. So könnte ein Pflegeroboter, der darauf programmiert ist, ein Versprechen einzuhalten oder eine Anweisung auszuführen, zu einer bestimmten Uhrzeit damit beschäftigt sein, eine vorgegebene Tätigkeit auszuführen. So könnte er z. B. ein Fernsehprogramm einschalten und daher Aufgaben vernachlässigen, die gerade in diesem Moment eventuell wichtiger wären, z. B. dem gestürzten Patienten zu helfen. Die Tatsache, dass autonome Roboter mit solchen Dilemmata konfrontiert werden könnten, macht die Entwicklung einer Maschinenethik notwendig, damit Roboter auch weiterhin in solchen Bereichen autonom funktionieren können, ohne dass sie von Menschen überwacht werden müssen.

Menschen verlassen sich in Dilemmata für ihre moralischen Urteile auf ihre Intuition, also auf die Anwendung solcher Normen und Überzeugungen, die sich in der Vergangenheit in ähnlichen Situationen bewährt haben. Der berühmte britische Mathematiker Alan Turing erwähnte in einem seiner Artikel eher beiläufig die kritische Bemerkung, Maschinen seien niemals in der Lage, wie ein Mensch Gutes vom Schlechten zu unterscheiden. Die Maschinenethik versucht, dieses zu widerlegen und Maschinen genau mit dieser Fähigkeit auszustatten.

Ansätze

Isaac Asimov ist der wohl bekannteste Science-Fiction-Autor der Welt. In seinem literarischen Werk setzte er sich auch mit der Beziehung zwischen Mensch und Roboter auseinander, für deren Zusammenleben er die Robotergesetze entwickelte. Auch wenn seine Werke Fiktion sind, so haben sie dennoch die Wissenschaft und Robotik nachhaltig beeinflusst. In ihrer ursprünglichen Form lauten sie folgendermaßen:Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, dies würde gegen das erste Gebot verstoßen.Ein Roboter muss seine eigene Existenz schützen, solange solch ein Schutz nicht gegen das erste oder zweite Gebot verstößt.Eventuell wurde Ihnen bewusst, dass Asimovs Gesetze beeinflusst sind von den Gedanken Immanuel Kants, nämlich dem kategorischen Imperativ. Die in Asimovs Gesetzen erkennbare Hierarchie ziehen wir Menschen gerne heran, um Dilemmata zu lösen, bei denen unterschiedliche Werte oder Regeln miteinander in Konflikt stehen. Diese Hierarchie ist aber weder universell eindeutig, noch decken diese Regeln alle moralischen Probleme ab. Ein breites Set an Regeln im Vorfeld zu definieren ist aber aufgrund der Vielfalt möglicher Situationen, die ein Roboter begegnen kann, schier unmöglich.

Eine weitere bekannte ethische Theorie ist der Utilitarismus. Der Philosoph Jeremy Bentham vertrat die Ansicht, dass alle Menschen nach Glück streben und Leid vermeiden wollen. Er sah zwischen diesem natürlichen Lustempfinden und der moralischen Qualität einer Handlung einen notwendigen Zusammenhang und so erhob er diese Ansicht zum Maßstab der Bewertung von Handlungen. Bis heute hat seine Theorie großen Einfluss nicht nur auf die Logik politischer Entscheidungen oder die Ökonomie, sondern auch auf unsere alltäglichen moralischen Urteile.

Spätestens seit den Überlegungen von Benthams Nachfolger John Stuart Mills ist das Ziel des Utilitarismus, ein Leben aller im Wohlstand zu ermöglichen, mit den ökonomischen Überlegungen wirtschaftlichen Wachstums verbunden. Daher lässt sich die utilitaristische Logik sehr gut mit den Methoden berechnen, die aus den Wirtschaftswissenschaften bekannt sind. Und rechnen können Computer ja bekanntlich gut. Andererseits ist eine generelle Kritik am Utilitarismus nicht von der Hand zu weisen, die sich auch in Hinblick auf Roboter nicht erübrigt: Der Utilitarismus erlaubt Handlungen zugunsten des größeren Wohls, die die meisten von uns für ungerecht, unfair und unmoralisch halten würden, weil sie zum Beispiel das Fehlen einer persönlichen Beziehung eines Akteurs zu seiner Umwelt erkennen lassen oder das Wohl einer Mehrheit über das Wohl einer Minderheit stellen.

Fazit

Es wird Sie hoffentlich nicht verwundern, dass wir an dieser Stelle kein Fazit ziehen können, denn schließlich sind dies Überlegungen, die hochqualifizierte (Maschinen) Ethiker erst angefangen haben zu stellen und erste mögliche Lösungsansätze zu diskutieren. Aus unseren Erfahrungen aber mit den deutlichen Fortschritten der selbstlernenden KI in den letzten Jahren stellen wir eine (utopische, in Zukunft realistische?) Möglichkeit in den Raum: Ist es nicht möglich, die Maschinen diese Moral selbst lernen zu lassen? Das Lernmaterial könnte aus Alltagssituationen, Szenen aus Film und Literatur und vielem mehr bestehen. Es sollte natürlich eine große Vielfalt und Ausgewogenheit der moralischen Beurteilungen beinhalten, um ein möglichst vorurteilsfreies Analyseurteil zu erhalten. Diese Vielfalt sollte nicht nur die verschiedenen ethischen Theorien umfassen, sondern auch verschiedene kulturelle Hintergründe, aus denen die Beispieldaten stammen. Verstärkendes Lernen könnte selbstständig dieses Lernmaterial kontinuierlich verbessern.



© 2019 by Software Innovation Bridge

+49 176 51975082