top of page
Suche
AutorenbildSven Wilms

KI und Ethik

Ethik-Papiere für Künstliche Intelligenz (KI) und maschinelles Lernen (ML) gibt es mittlerweile viele. Doch wie man sie praktisch umsetzen kann, daran hapert es. Eine Expertengruppe hat konkrete Lösungsvorschläge entwickelt.

Von vielen Akteuren wurden mittlerweile Ethik-Richtlinien formuliert, deren Einhaltung für KI-Algorithmen verbindlich sein soll. Allerdings bleiben solche Vorgaben zahnlos, wenn nicht klar ist, wie man sie umsetzen und kontrollieren soll. Genau darum geht es bei einem interdiszi-plinären Framework der AI Ethics Impact Group (AIEIG). Dieses Gremium wurde von VDI/VDE und der Bertelsmann-Stiftung ins Leben gerufen.

Der Text, der das Framework beschreibt („From Principles to Practise – an interdisciplinary framework to operationalize AI ethics“,) ist im Internet frei zugänglich. Ziel ist es, KI-Produkte und Dienste ähnlich dem Energieverbrauchslabel zu kennzeichnen.

Anwendungsmöglichkeiten für ein solches Labeling und das zugrunde liegende Framework gibt es viele: Es eignet sich als konkrete Richtlinie für die Ausgestaltung von Produkten und Diensten und als Argument im Wettbewerb. Verbraucher und Beschaffungsabteilungen könnten die Qualität zur Wahl stehender Produkte daran messen, Regulierungsbehörden in bestimmten Anwendungsfeldern die Einhaltung spezifischer KI-Qualitätslevel verlangen („Produkte für den Bereich A brauchen mindestens ein Label der Klasse X“) und so weiter. Ein intransparentes Dickicht unterschiedlicher KI-Branchenstandards wäre überflüssig.

Die Systematik des Frameworks besteht aus drei Komponenten:

  • einem Modell (VCIO – Values Criteria, Indicators, Observables) für die Bewertung der Einhaltung einzelner ethischer Werte,

  • einer konkreten Bewertung von KI-Produkten oder -Services, zum Beispiel in Form eines dem Energieverbrauchslabel nachempfundenen Ethik-Labels,

  • einer Risiko-Matrix, die hilft, einzuschätzen, ob und in welchem Umfang ein bestimmtes KI-Produkt oder ein bestimmter KI-Service einer ethischen Bewertung unterzogen werden sollte.

Die Anwendung aller drei Komponenten würde nach Meinung der Autoren dafür sorgen, dass KI-Produkte immer dann, wenn dies erforderlich ist, einer ethischen Bewertung unterzogen werden. Dabei spielt im ersten Schritt vor allem die Risiko-Matrix eine Rolle. Die AIEIG schlägt sechs Risikostufen vor: Stufe 0 bedeutet absolut harmlose Tools, beispielsweise für den intelligenten Einkauf eines besonders gut sitzenden Schuhs. Hier sei keine besondere ethische Bewertung nötig. Die höchste Risikoklasse birgt für die von algorithmischen Entscheidungen Betroffenen extrem schwerwiegenden Risiken mit potenziell irreversiblen Folgen. Hier, so schlagen die Experten vor, sollte überhaupt keine autonome algorithmische Entscheidung erfolgen. Als Beispiel benennt das Papier autonome Waffensysteme. Die Risikoklassen dazwischen haben mit der Risikoklasse steigende ethische Anforderungen an Transparenz, Verantwortlichkeit etc.


Mit dem VCIO-Modell lässt sich feststellen, in welchem Umfang ein ethischer Wert tatsächlich eingehalten wird. Für die nötigen Messungen wurde ein vierstufiges Modell entwickelt und zunächst auf vier von sieben im Papier benannte ethische Werte für KI exemplarisch ausdifferenziert.

Insgesamt hält die AIEIG derzeit im Einklang mit den meisten anderen Gremien die Werte Transparenz, Zurechenbarkeit/Verantwortlichkeit, Erhalt der Privatsphäre/Datenschutz, Gerechtigkeit, Zuverlässigkeit und ökologische Nachhaltigkeit für wichtig. Wegen ihrer Bedeutung befasst sich das Papier detaillierter mit Zurechenbarkeit/Verantwortlichkeit, Gerechtigkeit und Transparenz.

Um diese drei Werte messbar zu operationalisieren, hat die AIEIG ein insgesamt vierstufiges Modell entwickelt. Für jeden der drei Kernwerte wurden Messkriterien, Indikatoren und als unterste Stufe die dafür zu beobachtenden/festzustellenden Ausprägungen definiert.

Werte sind letztlich handlungsleitender Maßstab, Kriterien definieren, wann ein Wert umgesetzt oder nicht umgesetzt wurde, Indikatoren messen, inwieweit ein Kriterium verwirklicht ist und Observables sind die spezifischen, messbaren Ausprägungen jedes Indikators. Wie das konkret funktioniert, soll an einem Beispiel aus dem Bereich Transparenz verdeutlicht werden.

Transparenz bezieht sich auf zwei Kriterien: erstens die Möglichkeit, die Originaldaten zu sehen, anhand derer ein Algorithmus trainiert wurde und mit denen er arbeitet. Zweitens auf die Einsicht in den Algorithmus respektive das zugrunde liegende Modell.

Für die Transparenz der verwendeten Daten sind drei Indikatoren spezifiziert: Ist die Herkunft der Daten dokumentiert? Ist es plausibel, welche Daten für welche Entscheidung verwendet werden? Und wurde das Trainingsdataset dokumentiert und umfassend offengelegt?

Für jeden dieser Indikatoren gibt es dann wiederum mehrere beobachtbare Ausprägungen. Je nachdem, welche beim jeweiligen Produkt vorliegt, bemisst sich, in welchem Umfang der jeweilige Indikator erfüllt oder nicht erfüllt wurde. Beim Indikator „Datenherkunft dokumentiert?“ würde eine sehr gute Umsetzung beispielsweise bedeuten, dass alle Betriebs- und Trainingsdaten noch vorhanden sind und ihre Herkunft überprüfbar ist, dass eine Versionskontrolle stattfindet und vielleicht noch anderes mehr. Eine sehr schlechte Ausprägung des Indikators wäre, wenn die Herkunft von Trainings- und Anwendungsdaten nicht dokumentiert und überprüfbar wäre.

Abschließend werden die Ausprägungen der Einzelindikatoren zu Bewertungen für den jeweiligen Werte verdichtet. Wie dies geschieht, ist ausdrücklich Verhandlungssache zwischen allen Stakeholdern, sollte aber dann einheitlich für alle KI-Produkte erfolgen.

Die AIEIG schlägt eine fünf- bis siebenstufige Skala pro Wert vor, allesamt dargestellt in einem Label, das dann die jeweiligen Angebote ziert. Die beste Umsetzungsstufe wäre analog dem Energielabel ein A+++. Beim Verdichten der einzelnen Indikatoren und ihrer Ausprägung zu einer Bewertungsstufe schlägt die AIEIG vor, Mindestkriterien für jede Bewertungsstufe zu definieren.

Der Ansatz der AIEIG bildet einen der ersten konkreten Versuche, die Umsetzung von KI-Ethik praktisch handhabbar zu machen. Dabei verhehlt die AIEIG nicht, dass ihre Arbeit ein erster Entwurf ist. Bei der weiteren Detaillierung sieht die Gruppe vor allem die Standardisierungs-gremien gefordert.

Und auch die Politik bekommt zu tun. Die AIEIG fordert die EU-Kommission ausdrücklich auf, ihre bisherige Herangehensweise an das Thema „ethische Werte und KI“ zu verfeinern. Es reiche nicht aus, KI-Anwendungen in nur zwei Klassen (hohes/niedriges Risiko) einzustufen, wie das in der Aktualisierung der EU-KI-Strategie vom Februar 2020 geschehen ist.




Comments


bottom of page