Effektive Datenanalyse ohne grosse Datenbasis in Rekordzeit – gerade für KMUs
An Themen wie Data Analytics oder (de-)zentraler Datenhaltung kommt heute kein Unternehmen mehr vorbei. Doch während die globalen Player ihre geradezu Unmengen an Daten kanalisieren und ordnen müssen, haben kleine und mittlere Unternehmen (KMUs) eher eine überschaubare Datenlage. Zu wenig für eine effektive Datenanalyse? Ganz und gar nicht!
Sie erinnern sich doch noch: Data Lakehouse ist ein modernes Datenmanagement, das Kosteneffizienz und Flexibilität (Data Lake) mit strukturierten und schnellen Abfragen (Data Warehouse) vereint. Mit der heute beginnenden Reihe zeigen wir Ihnen, wie schnell und unkompliziert auch Sie Data Lakehouse in Ihrem Unternehmen implementieren können. Den Start macht ein Beispiel mit unserem «Light»-Ansatz. Denn auch ohne eine umfassende Datenbasis lässt sich ganz hervorragend von den Vorteilen eines Data Lakehouse profitieren. Wir zeigen Ihnen wie!
Die Herausforderung: Daten, Daten, Daten
Die meisten Unternehmen arbeiten bereits mit Kassen- oder Transaktionssystemen wie ERP. Deren Analysemöglichkeiten sind in der Regel jedoch sehr begrenzt. Auf der anderen Seite scheuen viele den Einsatz von Analyse-Tools mit hohem Funktionsumfang, wie etwa Power BI, das schnelle Einsichten in Geschäftsprozesse ermöglicht. Denn die Bereitstellung der benötigten Daten kann durchaus herausfordernd sein: Alle Informationen müssen erst gesammelt, gespeichert, aufbereitet und auf ihre Qualität geprüft werden.
Traditionelle Datenbanklösungen können allerdings schnell komplex werden. Sie erfordern spezielle ETL-Ansätze, Skripte, Programmierung und Datenbankspezialisten. Ausserdem müssen moderne Anwendungen zunehmend mit No-SQL Technologien umgehen können: Daten werden nicht mehr nur in Datenbanken gespeichert, sondern auch als Textdateien im JSON-Format und gestreamt.
Die Lösung: Data Lakehouse
Von einer modernen Datenplattform kann man heute erwarten, dass sie sowohl strukturierte als auch unstrukturierte Datenformate verarbeitet und das ohne langwierige Prozesse. Denn weder können noch wollen Unternehmen monatelang auf die Beantwortung brennender Fragen warten. Da bietet Data Lakehouse als hybrides Datenmanagement-System die Lösung. Daten lassen sich aus verschiedenen Quellen zusammenführen und aufbereiten – auch schlechte oder unzureichende Datenqualität wird im Zuge dessen bewältigt.
Und das Beste daran: In der Data Lakehouse Light-Version funktioniert die Einrichtung einer modernen Datenarchitektur schnell, unkompliziert und auch ohne grosse Daten-Ressourcen bereits in nur wenigen Wochen.
Aus der Praxis: Was tun, wenn keine grosse Datenbasis vorhanden ist?
In einem konkreten Fall bat uns ein Kunde, innerhalb von nur vier Wochen Umsatzberichte aus einem brandneuen Kassensystem zu generieren, das täglich Verkaufstransaktionen aus insgesamt 28 verschiedenen Filialen im JSON-Format erzeugte. Aufgrund der Dringlichkeit bot sich eine «Data Lakehouse Light» Architektur an. Zuerst wurde innerhalb kürzester Zeit ein Data Lake aufgebaut, das die JSON-Dateien im Rohformat aufnahm und so aufbereitete, dass sie in einem logischen Data-Layer abrufbar waren. Anschliessend konnten die Daten in einen Power BI Datamart geladen und für Reporting-Zwecke bereitgestellt werden. Power BI Berichte auf Basis der nun vorliegenden Daten zu erstellen war schliesslich ganz einfach. Das Team konnte dadurch innerhalb kürzester Zeit seine Umsatzstatistiken auf dem neuen Kassensystem aufbauen.

Die traditionelle Medaillen-Architektur (Bronze, Silber, Gold) kam hier nicht zum Einsatz. Stattdessen konnten wir dank Synapse Analytics sehr schnell einen semantischen Layer auf den JSON-Dateien aufbauen. Beim so genannten «Data Lakehouse Light» Ansatz steht eine semantische Sicht auf semi-strukturierten Daten im Vordergrund und man kann diese Daten schnell für Analysezwecke nutzen.
Für komplexe Projekte: Data Lakehouse Pro
Dieses Praxisbeispiel zeigt ein mögliches Einsatzszenario eines «Data Lakehouse Light». Haben Unternehmen jedoch höhere Anforderungen an die Datenanalyse (z.B. Historisierung der Daten, Time Travel, Master Data Management, Data Mesh etc.), stösst dieser Ansatz bald an seine Grenzen. Um komplexere Projekte umsetzen zu können, ist ein Enterprise-ready Ansatz notwendig, der so genannte «Data Lakehouse Pro». Diesen werden wir in einem der kommenden Blogbeiträge vorstellen.