Mangelnde Marktreife von Multicloud-Architekturen, Schwierigkeiten bei der industriellen Implementierung von KI-Lösungen, Angst vor Verstößen gegen Datenschutz- und Datensicherheitsvorschriften sind nur einige der Punkte, welche die Umsetzung großer KI-Projekte derzeit noch bremsen.
Tools zur Entscheidungshilfe, zur prädiktiven Analyse, zur Daten- und Trendvisualisierung und zum Reporting sowie intelligente Suchmaschinen sind in aller Munde und können bereits heute mit der entsprechenden Software bewerkstelligt werden, sofern Daten in guter Qualität und im industriellen Maßstab vorliegen. Zwar sind Konzepte wie das Data Warehouse, der Data Lake, HPC, Business Intelligence, Big Data und KI bereits seit Jahren bekannt, neu sind jedoch die enorme Datenmenge aus dem Internet und dem IoT, die Verarbeitungskapazitäten zur Konsolidierung und Visualisierung dieser Daten in Echtzeit sowie die Industrialisierung von KI-Projekten. Wenn die Wirtschaft diese technischen Fortschritte nicht nutzt, wird sie kaum zu Innovationen in der Lage sein.
Weshalb sollten strukturierte oder nicht-strukturierte Daten konsolidiert werden?
Fachdaten in Datenbanken werden zwar bereits seit etwa zwanzig Jahren in Data Warehouses zusammengefasst, aber das Internet und das IoT machen diese Zentralisierung komplexer. Die Menge der nicht-strukturierten Daten wächst nämlich exponentiell.
Neu sind nicht nur Menge und Vielfalt der Daten, sondern auch deren Verarbeitung in Echtzeit. Nicht-strukturierte Daten aus dem Internet (Logs, Fotos, Videos, Tondateien, Datenbanken, vernetzte Objekte), dem IoT (Daten, die von mobilen oder statischen Einzelobjekten gesammelt werden) oder dem Edge Computing (z. B. Daten von Produktionsstandorten) werden in Data Lakes gespeichert. Nach der Bearbeitung mit BI- oder Big Data-Tools entstehen daraus Informationen für prädiktive Analysen, Verhaltensstudien, Trendforschung usw.
Datenerfassung und -konsolidierung laufen mittlerweile allerdings viel schneller als in der Vergangenheit ab. Erfolgten sie früher pro Quartal oder pro Monat, finden sie heute quasi in Echtzeit statt. Das hat viele Vorteile und ermöglicht grundlegend neue Anwendungen. So weist die Online-Kontenübersicht inzwischen in Echtzeit aus, wenn an einem Geldautomaten Geld abgehoben wurde. Bei einer Funktionsstörung in der Produktionskette wird das Unternehmen sofort benachrichtigt.
Ohne hohe Datenqualität keine künstliche Intelligenz
Stichhaltige, verständliche und wertvolle Informationen können jedoch nur aus qualitativ hochwertigen, kontextorientierten und angereicherten Daten gewonnen werden. Durch den Abgleich und die Auswertung aller möglichen Daten erkennen Big Data- und BI-Tools tatsächlich existierende Beziehungen zwischen Ursache und Wirkung und beleuchten Verbindungen zwischen Einzelereignissen.
In der Retail-Branche analysieren diese Tools beispielsweise gesammelte Einkaufsdaten, um das Verbraucherverhalten zu verstehen (Kaufzeitpunkt, Wert, Warengruppen, Einkaufskanal usw.) und daraus Trends abzuleiten und Kaufvorhersagen zu treffen.
Wissenschaftliche Untersuchungen erfordern komplexe Berechnungen und die Echtzeit-Verarbeitung riesiger Datenmengen. Deshalb kommt hier das High Performance Computing (HPC) zum Einsatz. Dies ist beispielsweise im Gesundheitswesen bei der Genomforschung oder in der Pharmaindustrie bei der Arzneimittelherstellung der Fall.
Heute kommt es für die Wirtschaft also darauf an, diese Tools einzubinden und zu implementieren, denn ansonsten fehlen ihr intelligente, verwertbare Echtzeit-Informationen.
Vorhersagen mithilfe von KI
Die Wirtschaft ist sich inzwischen der Bedeutung der KI bei der Automatisierung bestimmter Prozesse und der Erzeugung stichhaltiger Informationen durchaus bewusst. Dennoch setzt sie diese Technik sehr sparsam und im Rahmen von Proofs of Concept (POC) ein. Es gibt zwar vielfältige Projekte, die sich mit der Vorhersage von Produktionspannen und Impulskäufen oder der Ergänzung von Suchmaschinenanfragen beschäftigen, diese beschränken sich jedoch stets nur auf einen begrenzten Bereich. Noch ist nicht allen Unternehmen klar, welche wichtige Rolle die Anwendung von KI im industriellen Maßstab bei der Umsetzung wirklich innovativer, großer Fachprojekte spielt.
In Frankreich geht das Management zwar mehrheitlich davon aus, dass es nur mit KI seine Wachstumsziele erreichen kann, dennoch schrecken die meisten Führungskräfte vor einer umfassenden KI-Implementierung zurück. Diese Ängste sind daran gebunden, dass sie sich die Implementierung massiver KI-Technologie in einer Multicloud-Umgebung nur schwer vorstellen können. Solange sich ein POC-Projekt auf einen User Case in einem begrenzten Umfeld beschränkt, ist die KI-Implementierung einfach und ohne Risiko. Sobald aber auf Tausende Datensätze und zahlreiche Cloud-Funktionen zugegriffen wird, müssen die Projekte Gesetze und Vorschriften sowie Anforderungen hinsichtlich Rückverfolgbarkeit und Sicherheit berücksichtigen. Sie müssen in einen geschützten, transparenten und auditierbaren Produktionsprozess integriert werden. Aus Angst, nicht alle Anforderungen erfüllen zu können, bleiben die meisten Unternehmen im POC-Stadium stecken.
Zur Unterstützung der Unternehmen bei ihren Anstrengungen bezüglich der Industrialisierung der Analytics-Prozesse (Datalake, DataWarehouse, BI, Big Data, HPC, KI) und dem Datenmanagement empfehle ich deshalb den Einsatz von Technologiemodulen, die von Public-Cloud-Angeboten unabhängig sind. Diese können zur Beschleunigung der Implementierungsprozesse in einen DevOps/CloudOps-Prozess eingebunden werden.
15/10/2020