Im Zuge der digitalen Transformation von Unternehmen steigt das Interesse an KI-Technologien. In unterschiedlichen Branchen kommen sie bereits zum Einsatz. Konkrete Anwendungsfälle finden sich zum Beispiel in der medizinischen Diagnostik, im Bereich des autonomen Fahrens oder in der vorausschauenden Wartung von Maschinen. Die DARPA, von Beginn an ein wesentlicher Geldgeber und Treiber, unterteilt die Entwicklung von KI bis dato in drei Wellen. Das Konzept veranschaulicht, wie sehr KI sich verändert hat – und inwiefern sie sich weiterentwickeln könnte.
Die 1. Welle der KI – handgefertigtes Wissen
In dieser ersten Entwicklungsphase der KI wurden Muster noch per Hand in Computersysteme eingeschrieben und Zusammenhänge, sogenannte Wenn-dann-Beziehungen, manuell definiert. Es entstanden erste Expertensysteme und besonders regelbasierte Systeme – also Computerprogramme, die Handlungsempfehlungen aus einer Wissensbasis ableiten und bei der Lösung komplexerer Probleme unterstützen können.
Trotz vielversprechender Anfänge blieb ein echter Durchbruch in Form einer vollumfänglichen KI-Lösung aus. Mitte der 1980er-Jahre zogen sich viele einstige Geldgeber zurück und stellten ihre Bemühungen aufgrund der mangelnden kommerziellen Nutzbarkeit damaliger Lösungen ein.
Zwei der größten Hindernisse für erfolgreiche Projekte waren die Speicherkapazitäten und Rechenleistungen damaliger Computersysteme. Die 1. Welle der KI blieb also hauptsächlich eine akademische Disziplin, Investitionen wurden hauptsächlich in der Wissenschaft getätigt. In dieser Zeit wurden zwar die theoretischen Fundamente gelegt. Aber die zunehmende Schwierigkeit, Forschungs- und Entwicklungsgelder zu beschaffen, läutete, nach ausbleibender Unterstützung durch die DARPA, den Beginn des ersten sogenannten „KI-Winters" ein.
Die 2. Welle der KI – statistisches Lernen
Während die wissenschaftliche Forschung zur Künstlichen Intelligenz kaum neue Publikationen und Erkenntnisse hervorbrachte, machten andere, für die Weiterentwicklung nicht minder relevante Gebiete immense Fortschritte. Zwischen 1990 und 2010 wurden Rechenleistung und Speicherkapazität immer günstiger, was auch einen wahren Schub für die Forschung und Entwicklung der KI bedeutete. Erwacht aus dem sprichwörtlichen Winterschlaf, war das Thema wieder auf der Agenda.
Sichtbares Ergebnis dieser Zeit: Deep Blue (1996), IBMs Schachroboter, der den damaligen Schach-Weltmeister Garri Kasparow in einer einzigen Partie schlug. Vierzehn Jahre später schlug IBMs KI-System Watson (2011) in einer TV-Show alle damals amtierenden Schach-Champions. Watson demonstrierte dabei das Erkennen von Bildern, das Verstehen von natürlicher Sprache und das Schlussfolgern auf Grundlage von Informationen.
Mit der Entwicklung immer besserer Speicher- und Rechenleistungen wurde die Anwendung von lernfähigen Statistikmodellen auf großen Datenmengen möglich, die Strukturen in diesen Daten modellieren und darauf basierend Vorhersagen treffen konnten. Es entstand das Machine Learning, das heute bereits von jedem fünften Unternehmen produktiv eingesetzt wird. In den nächsten vier Jahren wird eine Verzehnfachung des Wertschöpfungsanteils dieser „kommerziellen KI“ prognostiziert.
In den vergangenen Jahren wurde der Begriff Deep Learning populär, die Forschungsdisziplin der tiefen neuronalen Netze. 2011 schufen diese das initiale Momentum für neues, umfassendes Interesse an der Technologie, von der Wirtschaft bis zur Politik. Forschung und Entwicklung haben seither deutlich an Fahrt aufgenommen.
Im Unterschied zur ersten KI-Phase gibt es heute, vor allem durch Cloud Computing, kostengünstige und zugleich enorm leistungsfähige Rechenleistung und durch stetig zunehmende Individualnutzung des Internets, einen kontinuierlichen Strom an neuen Daten. Durch die umfängliche Auswertung dieser Daten wird nun Deep Learning vollends möglich: Maschinen lernen selbstständig und erweitern ihr Wissen anhand eigener Interpretationen der Daten per Schwerpunkt- oder Clusterbildung innerhalb des Dateninputs.
Die 3. Welle der KI – Erklärbarkeit & kontextuelle Anpassung
Mit der steten Weiterentwicklung steigt auch der Verbesserungsbedarf: Neuronale Netze sind derzeit noch Blackbox-Ansätze, die man nicht versteht. Wenn man innen zehn Millionen Neuronen mit Verbindungen hat, kann man in einem Menschenleben nicht herausbekommen, was genau zu einer Entscheidung geführt hat. Das ist ein Knackpunkt des statistischen bzw. maschinellen Lernens. Zu „entmystifizieren“, verstehen und nachvollziehen zu können, wie und warum ein Algorithmus zu Ergebnissen kommt, zählt zu den anstehenden Herausforderungen und ist ein wesentlicher Anschub für die dritte Welle der Künstlichen Intelligenz.
Angesichts der vermehrt sicherheitsrelevanten Anwendungen, wie zum Beispiel dem autonomen Fahren, ist die so genannte Whitebox AI von entscheidender Bedeutung. Als logische Konsequenz werden die Eigenschaften Erklärbarkeit, Argumentation und Abstraktion in den Vordergrund treten.
Einer dieser Ansätze, die Erklärbarkeit von statistischen Modellen zu verbessern, ist LIME – Local Interpretable Model-Agnostic Explanations. Es kommt beispielsweise in der Medizin zum Einsatz, wo Diagnosen anhand von Patientendaten wie Alter, Gewicht oder Lebensweise erstellt und die Wahrscheinlichkeiten von Erkrankungen bestimmt werden können. LIME unterstützt, die wesentlichen Faktoren der Diagnose zu bündeln und begründet ein Ergebnis anhand einzelner Datenpunkte. Es steht exemplarisch für ein erstes ganzheitliches, kontextuelles Verständnis von Daten und deutet die Dimensionen der dritten Welle der Künstlichen Intelligenz an, die deutlich über die vorherigen hinausgehen wird.
Die dritte Welle wird die Symbiose Mensch und Maschine weiterentwickeln und Systeme hervorbringen, die in dynamischen Umgebungen reagieren, Kontexte adaptieren und ihre Umwelt verstehen können. Zunehmende Berührungspunkte zwischen künstlicher und menschlicher Intelligenz, zum Beispiel in Assistenzsystemen oder eben dem autonomen Fahren, erfordern außerdem, dass das System seine Annahmen und Motivationen nahtlos begründen kann.
Bình luận