Aus TGA 9: Datenverwertung : Analytik verhilft uns zum Durchblick!

cyberspace futuristic science stream abstract technology datum digital background curve glow particle tech business analysis artificial binary blur chaos code connection dot dynamic flow matrix 3d data internet computer design information communication network concept web dark illustration cyber graphic texture pattern wallpaper modern space future art coding number software programming cyberspace futuristic science stream abstract technology datum digital background curve glow particle tech business analysis artificial binary blur chaos code connection dot dynamic flow matrix 3d data internet computer design information communication network concept web dark illustration cyber graphic texture pattern wallpaper modern space future art coding number software
© Siarhei - stock.adobe.com

Wie im letzten Artikel über Emerging Technologies beschrieben, sind IoT-Devices unsere Augen und Ohren im Gebäude. Sie ermöglichen es uns kostengünstig und einfach (nachrüstbar), beispielsweise den Energieverbrauch, aber auch das Raumklima und andere Parameter zu monitoren. Dabei erzeugen sie aber auch viele Daten. Man kann nun den Ansatz wählen, sich nur in Ausnahmefällen pro aktiv benachrichtigen zu lassen. Dann werden die kritischen Grenzen festgelegt und die zuständige Mitarbeiterin erhält nur eine Nachricht, wenn es beispielsweise im Keller zu feucht ist, sprich ein Wasserschaden entstanden ist, oder zumindest die Gefahr für Schimmel besteht. Oder bei sehr hohen oder keinem Stromverbrauch wird der Servicetechniker gerufen.

Man kann aber noch viel mehr mit den Daten machen. Analytik-Tools stellen viele Möglichkeiten zur Verfügung. Diese Tools sind speziell darauf ausgerichtet, große Mengen von Daten zu verarbeiten und den Nutzern Analysen zu ermöglichen. Dabei werden nicht nur die einzelne Zeitreihen der Messgeräte in Charts dargestellt. Es werden Kenngrößen, wie Mittelwert und Standardabweichung oder die Summen in Grafiken dargestellt. Dazu aggregieren die Tools zum Beispiel die einzelnen Verbrauchswerte der Energie aus den Zeitreihen zu Summen nach der Zeit, oder bei mehreren Messgeräten pro Gebäude, zur Summe pro Gebäude/Liegenschaften etc. So kann man auf aggregierter Ebene zuerst analysieren, wo die größten Verbraucher im letzten Jahr oder Monat waren und dann die einzelnen Verbraucher detailliert über die Zeit ermitteln. Dieses Vorgehen nennt sich Drill Down, wo man von aggregierten Daten ausgeht und dann ins Detail geht. Vergleichbar ist das einer sehr großen Pivot Tabelle in MS Excel.

Ähnlich kann man beim Raumklima vorgehen. Hier interessiert eher nicht die Summe, sondern die Entwicklung, also der Mittelwert und die Standardabweichung. Dazu müssen die Daten aber zuerst in einer Datenbank gespeichert werden.

Datenbank als Basis für die Performanz

Mittlerweile ist es einfach, Zeitreihen in Datenbanken zu speichern. Hier gibt es zwei Varianten:

Man nutzt die bestehenden Datenbanken der CAFM oder ERP Systeme oder

es kommen spezielle Produkte wie InfluxDB zum Einsatz.

Beim ersten Ansatz lassen sich die Daten leicht mit anderen Informationen in Relation setzen. Beispiele dafür sind die Anschlusswerte der Klimageräte oder Aufzüge. Auch lassen sich einfache Performance Indikatoren wie Energie pro Quartmeter berechnen. Da hierfür Daten wie Bruttogeschossfläche und Nutzfläche des Gebäudes in der CAFM/ERP Datenbank bereits gespeichert sind und so zu den Messdaten in Relation gesetzt werden können. Auch die Veränderungen von Flächen werden in diesen Tools schon erfasst. Beispielweise werden Veränderungen in den vermieteten Flächen in den Hausverwaltungs- oder CAFM Tools verwaltet. Da alle Daten in der gleichen Datenbank immer aktuell zur Verfügung stehen, lassen sich so einfach immer aktuelle Kennzahlen berechnen. Der Nachteil dieser Lösung ist die Größe der Datenmenge. In ein bis zwei Monaten können mehrere Gigabyte zustande kommen. Meist sind aber die CAFM/ERP Datenbanken nicht für solche Datenmengen optimiert und so kann schnell die Performance leiden. Dies gilt teilweise auch für die Analytik-Tools der ERP Systeme.

Der zweite Ansatz sieht die Speicherung in Datenbanken vor, die spezielle für diesen Anwendungsbereich erstellt wurden. Diese speichern nicht nur die Zeitreihen in optimierter Form, sondern haben auch Funktionalität um die Kennwerte schnell und effizient zu berechnen.

Grafik Frontend – das Benutzerinterface

Der zweite Teil der Tools sind die Grafikgeneratoren. Hier gibt es einige wie PowerBI, die bereits in anderen Bereichen wie dem Vertrieb und zur Berechnung von Finanzkennzahlen verwendet werden. Im Gegensatz zu Excel gibt es hier mehr Formen von Grafiken. Neben Balken und Zeitreihen stehen KPI Dashboards und Management Cockpits zur Verfügung. Hier kann man zum Beispiel Zielwerte für den Verbrauch eingeben und aus den aktuellen Zahlen ableiten, ob man auf Zielkurs ist (grün), oder Maßnahmen setzen muss (gelb oder gar rot). Ein einfaches Beispiel sind hier Verbräuche pro Quadratmeter. Wenn sie den KPI für grüne Gebäude entsprechen, sind die KPIs grün. Bei Überschreitungen werden die Kennzahlen gelb bzw. rot. So kann das Management einfach den Handlungsbedarf erkennen. Bei diesen Tools gibt es auch viele weitere Dashboard zu kaufen. Alle verfügbaren Dashboards lassen sich zusätzlich von den Usern per Customizing oder einfacher Programmierung verändern. Bei detaillierten Zeitreihen kommt es aber häufig zu Performance Problemen.

Ein Tool optimiert für Zeitreihen ist Grafana. Dieses kann auch mit größeren Datenmengen bei Zeitreihen gut umgehen. Auch hier gibt es Erweiterungen oder man kann selbst per SQL oder Programmierung die Grafiken und Auswertungen anpassen. Auch Analytik Tools wie SAP Analytic sind hier zu nennen. Diese sind aber wesentlich teurer. Gerade das Grafik Frontend entscheidet mit Performance, Flexibilität und Benutzerfreundlichkeit über den Erfolg der Analytik Lösung.

Dezentrale Berichte sind das Ziel

Ziel jeder Analytik-Lösung sind nicht nur zentral zur Verfügung gestellt Grafiken, sondern dass der Endanwender eigenständig und flexibel seine Fragestellungen beantworte kann. Was meine ich damit?

Während früher Controlling und IT-Standardberichte zur Verfügung gestellt haben, die aber wenig bis gar keine Veränderungen oder Funktionalität wie Drill Down ermöglicht haben, stehen nun flexible Berichte im Mittelpunkt, die ermöglichen sollen, ad hoc Fragen zu beantworten. Man soll also nicht bei jeder neuen Frage, eine Entwicklung anstoßen, sondern der Nutzer soll selbst die Daten einfach analysieren können und so seine Probleme lösen. Flexibilität und Anpassung durch den Endnutzer stehen im Mittelpunkt. Controlling und IT stellen alle Daten zur Verfügung. Der Endnutzer analysiert sie, um seine Fragestellungen selbständig beantworten zu können.

Gerade dieses Ziel muss man bei der Erstellung der Analytik Lösung in den Mittelpunkt stellen. Das bedeutet aber einen Wandel der Funktion von Controlling und IT. Diesen Wandel zu managen, kann manchmal schwieriger sein, als das richtige Tool zu finden und einzusetzen.