Suche
  • Sven Wilms

Blick in die Blackbox

Einer der Kritikpunkte an künstlicher Intelligenz (KI) ist, dass die meisten der maschinell gelernten Modelle sogenannte Blackboxes sind, d.h. die von ihnen gelernten Zusammenhänge sind so komplex und abstrakt, dass es mit der begrenzten menschlichen Auffassungsgabe praktisch nicht mehr nachvollziehbar ist, warum das Modell welche Entscheidungen trifft.

Dabei gibt es unterschiedliche Verfahren und Methoden, die diese gelernten Modelle zumindest ansatzweise verstehen und interpretieren können, z. B. LIME, SHAP, PDP, ALE. Wir werden diese Ansätze in unserem Webinar "Blick in die Blackbox" am 14. November vorstellen.



Die Frage für Datenwissenschaftler ist heute, ob sie ein Modell nutzen, dessen Vorhersagen sie leichter erklären und rechtfertigen können, das aber weniger genaue Vorhersagen macht, oder ob sie ein Modell darauf optimieren, so genau wie möglich zu sein und sie in Kauf nehmen, dessen Entscheidungen nicht mehr nachvollziehen zu können. Hinsichtlich der aktuellen Debatten um die DSGVO und der immer häufiger eingesetzten komplexen Algorithmen wie neuronale Netze bleibt das Thema jedenfalls aktuell. Auf jeden Fall ist es sinnvoll, dass Forscher und Entwickler die Interpretierbarkeit von durch Algorithmen getroffene Entscheidungen führen. Zum einen, um Lösungen und Methoden wie LIME weiterzuentwickeln, zum anderen aber auch, um den gesellschaftlichen Diskurs über Fairness und versteckte Vorurteile in maschinell gelernten Modellen mit konkreten Handlungen zu unterstützen. Nur so können wir dafür Sorge tragen, dass die neuen Möglichkeiten uns wirklich Nutzen bringen und keinen ungewollten Schaden anrichten.

© 2019 by Software Innovation Bridge

+49 176 51975082