Suche
  • Sven Wilms

Fit für KI?

Seit vielen Jahren führen wir erfolgreiche Projekte im Bereich der künstlichen Intelligenz durch. Am Anfang kann es durchaus schmerzhaft sein, da häufig zum ersten Mal in der Geschichte der Firma ́Daten für diese Art von Analyse verwendet wurden. Leider sind die Daten für die komplexe Massendatenanalytik übermäßig und immer wieder "ungeeignet". Es gibt drei Hauptaspekte für die Eignung:

  • Zuverlässige Datenverfügbarkeit

  • gute Datenqualität

  • Leistung in Bezug auf Massendaten


Datenverfügbarkeit

In Zeiten von "Industrie4.0" sind Maschinen "IoT-enabled", d.h., dass Maschinen bereits vom Lieferanten mit Sensoren und Konnektivität ausgestattet sind, aber in vielen Fabriken werden alte und noch gute Maschinen verwendet, die keine Sensorik haben, so dass keine automatische Datenlieferung möglich ist. Was ist die Konsequenz? Die Installation von Sensoren, die die Konnektivität herstellen, und viele Datenquellen, die miteinander verbunden werden müssen.


Die gespeicherten Datenquellen, die Sie zur Verfügung haben, sind kompliziert oder kompliziert, um sicherzustellen, dass alle relevanten Daten verfügbar sind. Zum einen können Sensoren ausfallen, zum anderen könnten Sensoren gute Daten liefern, aber die Verbindung zur Datenbank ist nicht stabil. Dies gilt nicht nur für den exakten Zeitraum, in dem Daten fehlen, sondern auch für benachbarte Zeiträume. Häufig ist selbst eine partielle Analyse nicht mehr möglich. Durch das monatliche Auslassen von Daten kann sichergestellt werden, dass die fehlenden Daten danach synchronisiert werden können.


Die Lösung:SchnelleTransparenz

Die Algorithmen erkennen schnell, welche Daten fehlen und Mitteilungen werden sofort an die Verantwortlichen gesendet. Diese können genau sehen, welche Daten fehlen. Alögorithmen erkennen auch die Gründe für das Fehlen von Daten. Dies gewährleistet eine schnelle Transparenz und eine schnelle Reaktionszeit für die Problemlösung, wobei das Problem nicht akkumuliert, sondern fast im Keim erstickt wird, so dass die zusätzliche Belastung des operativen Systems gering ist.


Datenqualität

Prozesse, zum Beispiel in der Produktion, sind oft komplex und variantenreich, z.B. wird häufig eine große Anzahl unterschiedlicher Produkte hergestellt, so dass sich der Produktionswert zwischen den Produktionslinien, zwischen den Arbeitsstationen und den Produkten ändert. Wenn Daten für die in der Produktionslinie 1 hergestellte Komponente X verfügbar und gut sind, bedeutet dies nicht, dass Daten für die in einer anderen Produktionslinie hergestellte Komponente X gut sind.

Die Lösung: SemanticChecks

Diese Lösung wird durch ein sogenanntes "SemanticModel" gegeben, das die Datenqualität fallspezifisch prüft und automatische semantische Prüfungen vornimmt, die wiederum anhand von Live-Nachrichten über Probleme informieren. Auch hier werden Gründe für die Probleme entdeckt, so dass man eine Reihe von Problemen lösen kann: Schnell Transparenz herstellen und das Problem schnell lösen kann.Die Schlussfolgerung: Gute Daten sind möglich, wenn man Algorithmen verwendet, die die Menschen in spezifischen Fällen informieren.


Leistung

Häufig verwendet die künstliche Intelligenz-Analyse eine Vielzahl von Daten. Selbst wenn ein Analysewerkzeug gute Ergebnisse liefert: Die Akzeptanz eines Analysewerkzeugs für Daten hängt von der Zeitspanne ab, die der Benutzer gewartet hat, bis die Ergebnisse berechnet sind.


Die Lösung: Gezielte Datentransformation bewahrt die Masse der Daten nicht redundant auf, sondern greift auf sie aus verschiedenen Quellen zu. Das Schlüsselwort ist "Targeted Data


Transformation", eine zielgerichtete Datenverarbeitung, die die Verweildauer im Benutzer-Cockpit auf ein Minimum reduziert. Auf diese Weise können Sie effizient mit Ihren Daten arbeiten und sogar große Zeiträume analysieren.



© 2019 by Software Innovation Bridge

+49 176 51975082