In den letzten Jahren hat Artificial Intelligence enorme Fortschritte gemacht, insbesondere im Bereich der Generative AI und der Large Language Models (LLM). Diese Technologien haben nicht nur unser Verständnis von Maschinellem Lernen revolutioniert, sondern auch tiefgreifende Auswirkungen auf verschiedene Branchen, darunter das Wissensmanagement.
Eine der offensichtlichsten Auswirkungen von Generative AI auf das Wissensmanagement ist die Möglichkeit, hochwertigen Content automatisch zu erstellen. Mit LLM können Unternehmen Artikel, Blogbeiträge, Produktbeschreibungen und sogar wissenschaftliche Arbeiten in kürzester Zeit generieren. Als Basis für wertvollen Content im Sinne eines unternehmensinternen Wissensartikels, bieten sich Informationsobjekte an, in denen Wissen in seiner Rohform erfasst wird. Beispielsweise in Planungs-, Design-, und Berichtssystemen im Vertrieb, in der Entwicklung oder der Projektabwicklung.
Häufig werden hier Werkzeuge wie Jira, Confluence oder SharePoint verwendet, um Anforderungen und abgeleitete Produktwünsche der Benutzer zu erfassen, Arbeitspakete abzuleiten und diese in kleine Aufgaben, so genannte Tasks, runter zu brechen, Entwicklungs- und Projektziele festzuhalten und deren Fortschritt zu tracken sowie allgemeine Informationen zu Projekten.
Diese so genannten „System of Records“ sind eine erkenntnisreiche Informationsquelle, die aufgrund tausender Einträge nur leider der Mensch manuell nicht überblicken kann. Und genau an dieser Stelle setzt Generative AI an und unterstützt den Mitarbeitenden bei Fragen wie z. B.:
„Haben wir denn schon mal ein Projekt mit Anforderung X umgesetzt?“
„Wer kennt sich bei uns zu Thema Y aus oder hat sich schon mal Gedanken dazu gemacht?“
„Kommt die Anfrage zu Z häufig aus dem Markt und müssen wir handeln, oder ist das ein Einzelfall?
Large Language Models können hier unterstützen, indem sie die relevanten Informationen aus den Systemen finden, Zusammenfassungen dazu erstellen und dadurch die Antwort auf die Frage liefern. Dies erleichtert im Endeffekt nicht nur den Prozess der Content-Erstellung erheblich, sondern ermöglicht auch eine schnellere Verbreitung von Wissen.
Hochleitungsfähige semantische Indextechnologien wie zum Beispiel Knowledge Graphen bieten eine zusätzliche interessante Möglichkeit:
Eine Suche wird im so genannten „Grounding“ gegen den Knowledge Graph abgesetzt, um den Kontext zu präzisieren. Anschließend wird die verbesserte Suchanfrage gegen den Dokumentenindex abgesetzt und die besten Dokumente zur Anfrage über weitere AI-Verfahren ermittelt. Diese Top-Treffer werden anschließend als Prompt an das Large Language Model zusammen mit der Anfrage des Nutzers übergeben und aus der Kombination der Treffer eine natürlichsprachliche Antwort generiert. Die LLM-Antwort wiederum kann über den Knowledge Graph überprüft und verfeinert (gegroundet) werden, um dadurch das Halluzinieren der Generative AI zu unterbinden.
Es ist kein Hexenwerk, aber es erscheint dem Nutzenden wie Magie, denn so erhält er die Antwort auf seine Frage statt Dokumententreffer, in denen die Antwort irgendwo steht. Dies führt zu präziseren Suchergebnissen und einer effizienteren Wissensverwaltung.
Fazit
GenAI und LLM haben einen enormen Einfluss auf das Wissensmanagement. Die Automatisierung von Content-Erstellung, verbesserte Suchfunktionen, personalisierte Benutzererfahrung und automatisierte Übersetzungen sind nur einige der Vorteile, die diese Technologien bieten.
Der Fortschritt ist ein Quantensprung, in dem die Mitarbeitenden dank der AI neue Kräfte verliehen bekommen und nunmehr kollaborativ gemeinsam mit der Maschine ihre Wissensarbeit mit deutlich besserer Effizienz leisten können und sozusagen eine hybride Intelligenz darstellen.
Quelle: Empolis Information Management

Comments