Wie werden Daten erfasst und zu nützlichen Informationen für die Stadtverwaltung verarbeitet? Wie werden Daten aus der realen Welt vor Ort in digitale Umgebungen (Datenbanken, KI, Branchensoftware usw.) integriert? Dazu einige Erläuterungen.
Das Datenverarbeitungssystem in so genannten „smarten“ Umgebungen mag dem Laien sehr verwirrend vorkommen. Am Beginn der Verarbeitungskette stehen Sensoren, die Daten vor Ort erfassen und digitalisieren. Erhoben werden Daten wie Temperaturen, der Füllstand von Müllgefäßen oder ein CO2-Gehalt. Neben diesen vor Ort erfassten Daten steuern auch externe Systeme Daten bei, zum Beispiel Wetterinformationen.
Am anderen Ende dieses verschlungenen Weges steht die komplexe Welt der Anwendungen zur Entscheidungsunterstützung. Man spricht dann beispielsweise von Branchenanwendungen, die durch die technischen Dienste einer Stadt eingesetzt werden, oder von Web- bzw. Mobilanwendungen für die Mitarbeiter vor Ort oder die Endnutzer.
Es gibt jedoch einen deutlich weniger transparenten Abschnitt zwischen dem vernetzten Objekt und der Anwendung. Dabei handelt es sich um Module, welche die Rohdaten so anreichern, dass Informationen mit echtem Mehrwert als Grundlage für Entscheidungen und Maßnahmen entstehen. In einem ersten Schritt sammelt diese „Blackbox“ Daten mittels unterschiedlichster Sensoren. Dazu muss sie sämtliche Kommunikationsprotokolle beherrschen, die von diesen Sensoren benutzt werden.
Speicherung im „Data Lake“
Daten aller Art und vor allem unterschiedlichster Formate laufen in einem „Data Lake“ zusammen, in dem „unstrukturierte, unveränderte Daten“ gespeichert werden. Bei Schwächen im Aufbau dieses Bereichs besteht die Gefahr, dass sich die Informatiker in den Weiten dieses „Sees“ verlieren. „Sie verbringen bis zu 75 % ihrer Zeit damit, die Daten aufzubereiten, bevor sie interpretierbar sind“, so Gwendal Azous, IoT-Consultant bei Axians, der ICT-Marke von VINCI Energies.
Je nach Sensor können Temperaturdaten beispielsweise in Celsius oder in Fahrenheit ausgelesen werden. Im Interesse der Effizienz müssen diese Daten vereinheitlicht werden.
Dazu implementiert Axians eine Software, welche die Daten vor der Speicherung standardisiert. Ein Temperaturwert in Fahrenheit wird automatisch in Celsius umgerechnet, wenn der Kunde gemeinsam mit seinem Systemintegrator diesen Standard festgelegt hat. Gleiches gilt für Datumsangaben, deren Strukturen sich von einem Land zum anderen unterscheiden. „Es ist entscheidend für die Systemeffizienz, dass der „Data Lake“ auf diese Weise organisiert wird“, unterstreicht Edouard Henry-Biabaud, Business Development Manager Axians.
Nach der Standardisierung fließen die Daten in unterschiedliche Datenbanken ein, aus denen der „Data Lake“ besteht. Diese haben je nach Art der vorgesehenen Datenverarbeitung spezifische Merkmale hinsichtlich Speicherdauer, Zugriffsgeschwindigkeit und Speicherkapazität.
Heiße, warme und kalte Daten
Für so genannte „heiße“ Daten kommen relationale Datenbanken vom Typ SQL zum Einsatz. Sie ermöglichen einen raschen Zugriff und die Verarbeitung der Daten quasi in Echtzeit. Hier sind beispielsweise die Object Repositories gespeichert, Monitoringdaten, die eine sofortige Verarbeitung oder Reaktion erfordern. Die Speicherdauer ist begrenzt und liegt zwischen einer und vier Wochen.
Nach dieser Frist werden die Daten nicht gelöscht, sondern zwecks Archivierung in eine Datenbank für „kalte“ Daten verschoben. Bei einer solchen Datenbank kommt es kaum auf die Zugriffsgeschwindigkeit an.
„Anhand von drei Messungen, etwa des Fußgängerstroms, des Wetters und der freien Parkplätze, können wir die Kundendichte im Supermarkt vorhersagen.“
Datenbanken für „warme“ Daten sind für Big Data konzipiert. Sie können große Datenmengen rasch verarbeiten und speisen Datenanalyseprozesse und „intelligente“ Algorithmen.
„Diese Daten werden im Durchschnitt mindestens ein Jahr lang gespeichert (dabei kommt es sehr stark auf die Anzahl der Use Cases und das Datenvolumen an). Sie werden für die prädiktive Analyse zur Maintenanceoptimierung oder zur Verhaltensprognose und Entscheidungsfindung vor einem Ereignis eingesetzt“, erläutert Henry-Biabaud.
Eine wichtige Phase der Datenverarbeitung besteht darin, die Daten in ihrem Kontext zu analysieren. „Das Rohdatum „es sind 22 Grad“ ist an sich uninteressant. Wenn man es aber vor dem Hintergrund des Monats und des Ortes betrachtet, bekommt es eine Bedeutung. 22 Grad im Januar in Paris ist viel. Im August ist es normal. Nach einer solchen Analyse werden die Daten zu Informationen, die nach Verarbeitung durch die KI zu einem Erkenntnisgewinn führen“, erläutert Henry-Biabaud.
„So können wir anhand von drei Messungen, etwa des Fußgängerstroms, des Wetters und der freien Parkplätze, die Kundendichte im Supermarkt vorhersagen“, ergänzt Gwendal Azous.
Maßnahmenorientierte Anwendungen
Nach Erfassung, Standardisierung und Speicherung der Daten in der richtigen Datenbank dienen sie als „Treibstoff“ für die Endanwendungen. Der Vorteil einer solchen Architektur für eine Stadt oder ein Unternehmen ist das einfache Hinzufügen neuer Anwendungen, die ihre Daten aus dem „Data Lake“ mit seinen kalten, warmen und heißen Datenbanken beziehen.
Unterschiedliche Anwendungstypen greifen über API-Schnittstellen, also über Software-Interfaces, auf die Datenbanken zu. Branchenanwendungen sorgen für ein klares Bild eines Use Cases wie etwa der Verwaltung der Stadtbeleuchtung, der Luftreinheit oder der Abfallentsorgung. Mit solchen Anwendungen können die technischen Dienststellen einer Stadtverwaltung, die häufig nach Einsatzbereichen gegliedert sind, auf die für sie relevanten Daten zugreifen und so ihre Aufgaben erledigen.
Bereichsübergreifende Anwendungen wiederum führen Informationen aus unterschiedlichen Use Cases zusammen und ergeben ein stimmiges Gesamtbild der Stadt. Als übergeordnete Instanz kann ein Hypervisor installiert werden, der zur leichteren Visualisierung und somit zur Berücksichtigung wichtiger Informationen aus den verschiedenen Anwendungen führt.
Von der Datenerfassung bis zur Verarbeitung sorgt das IT-System einer Stadt für entscheidungsrelevante Erkenntnisgewinne, denn letztendlich entscheidet immer der gut informierte Mensch, nicht der Algorithmus.
14/11/2019