top of page
Suche
  • AutorenbildSven Wilms

Mythen und Realität in der KI, Teil 3



In einer Folge von 5 Blogbeiträgen alle vier Wochen wollen wir insgesamt 5 verschiedene Mythen in der KI (Künstlichen Intelligenz) von Chatbots aufgreifen und sie der entsprechenden Realität gegenüberstellen.


In der heutigen dritten Folge betrachten wir den Mythos "ML (Machine Learning)-basierte Chatbots sind "selbstlernend"".


Dies ist ein sehr verbreiteter Mythos. Er wird auch gerne von den ML-basierten Chatbot-Anbietern aufgegriffen und verbreitet, denn er suggeriert: "Da muss ich als Mensch nichts mehr machen, der Bot macht alles von allein". Schauen wir uns die Realität an: Geben Sie doch einmal in einen ML-basierten Bot die Anfrage, die er zuerst nicht verstanden hatte, wiederholt ein: lernt der Bot durch Ihre mehrmalige Eingabe? Sie werden feststellen, Sie können die Eingabe tausendmal wiederholen, er lernt nicht. Erst wenn der Mensch eingreift und den Bot "füttert", lernt er. Ist dies selbstlernend?


Der Mensch muss einen ML-basierten Bot antrainieren. Dies kann er mit verschiedenen Tools durchführen. So können zum Beispiel sogenannte Entitäten definiert werden, zum Beispiel "Eintrittskarte". Dafür können wiederum Synonyme definiert werden, wie zum Beispiel "Ticket". Man kann auch negierte Inputs, wie zum Beispiel" Ich habe meine Kreditkarte nicht verloren" mit Fallback-Antworten versehen.



Entitäten und Synonyme können durch den Menschen definiert werden




Auch ML-Parameter können gesetzt werden, zum Beispiel kann das Konfidenzniveau eingestellt werden. Ist es niedrig, z. B. bei 0,3, so gibt der ML-basierte Bot Antworten aus, die mit einer 30%-igen Wahrscheinlichkeit passend sind. Vielen Unternehmen ist dies aber viel zu niedrig, da dann häufig nicht-passende Antworten ausgegeben werden. So wird das Konfidenzniveau häufig auf über 0,9 eingestellt. Das bedeutet aber wiederum, dass eigentlich passende Antworten nicht ausgegeben werden, da der Bot diesen Match nicht findet, da er nicht darauf trainiert wurde. Beispiel: Der Bot wird auf den Intent " Ich habe meine Kreditkarte verloren" mit der Antwort trainiert "Das tut mir leid. Hier können Sie eine neue beantragen". Nun geben Nutzende aber nicht immer nur den Intent in der gewünschten Formulierung ein, sondern in verschiedensten Varianzen, zum Beispiel mit "Meine Kreditkarte ist weg.". Bei einem hohen Konfidenzniveau und nicht hierauf trainierten Schlagwort-Korrelationen wird der Bot mit einer Fallback-Antwort antworten "Ich habe die Frage nicht verstanden. Können Sie sie bitte nochmals wiederholen."


Eigentlich notwendig hohe Konfidenzniveaus führen dazu, dass der Bot auch sinnvolle, aber "anders" formulierte Intents nicht erkennt. Dies führt zu einer unnatürlichen Kommunikation.




Es gibt viele Stellhebel, wie ein ML-basierter Chatbot reagieren soll. Aber gerade dies zeigt: das Antrainieren muss durch den Menschen erfolgen.


Realität: "ML (Machine Learning)-basierte Chatbots sind nicht selbstlernend". I


In der vierten Folge von "Mythen und Realität in der KI" am 26. April beschäftigen wir uns mit dem Mythos "Regel-basierte Bots sind nicht intelligent".

Comments


bottom of page