Nach einer intensiven Testphase fehlten uns kurz vor der SDS nur noch die Azure Subscriptions. 20 sollten es insgesamt sein, da wir uns auf 20 Teilnehmer eingestellt hatten. Doch fünf Tage vor der SDS erfuhren wir, dass sich nicht 20, sondern 35 Personen für den Workshop angemeldet hatten. Das bedeutete für uns, dass weitere 15 Subscriptions her mussten, die wir dann tatsächlich rasch auftreiben konnten. Wir fühlten uns startklar – bis wir 2 Stunden vor Workshopbeginn die Information erhielten, dass unser Angebot so beliebt war, dass der Trainingssaal mit sage und schreibe 50 Teilnehmenden bis zum letzten Platz gefüllt war. Argh?
Doch auch diese Herausforderungen konnten wir meistern und 50 Logins auf 30 Subscriptions verteilen – in der Hoffnung, dass wir damit nicht in Quota Probleme rennen würden. Denn wir wussten, dass es knapp werden könnte, wenn alle zur gleichen Zeit Synapse und Spark Pools vom Azure Datacenter beantragen.
Der Workshop ging los, der Raum war gut gefüllt und alle waren gespannt auf die Hands-on Experience. Wir fackelten nicht lange rum und begannen nach 20 Minuten Intro zu Data Lakehouse allgemein und grundlegenden, theoretischen Konzepten mit den konkreten Übungen.
Nach 5 Minuten in den Labs bahnte sich der Supergau an: Die ersten Installationen schlugen fehl und die Teilnehmer wunderten sich, wieso sie nicht weiterkamen. Rasch stellt sich heraus, dass sie gar nichts falsch gemacht hatten – das Problem waren zwei Datacenter, die – wie von uns befürchtet – Quota-Probleme hatten. Nachdem wir diese problematischen Datacenter auf andere umgeleitet hatten, konnten sich alle Teilnehmer wieder ungestört durch die Labs arbeiten. Wir halfen dann da und dort noch bei typischen Problemchen (Typos, Copy-Paste Fehlern, übersprungene Schritte) aus und beantworteten Fragen.
Nach zwei Stunden schlossen wir den Workshop mit einer Demo und einer spannenden Q&A Session erfolgreich ab. Die häufigsten Fragen drehten sich um zusätzliche Informationen rund um das Delta Lake Format: zur Leistung des Data Lakehouse, zu den optimalen Dienstanbietern (Microsoft, Databricks, Google, Amazon oder Snowflake), Implementierungskosten, Open Source Alternativen und zur Zukunft dieser Architektur angesichts der Fortschritte bei Microsoft Fabric.
Interessant für uns war, dass von den Anwesenden nur ca. 30% Azure, 30% Amazon und 10% Google Cloud kannten. Damit trafen wir mit diesem Workshop den Nagel auf den Kopf – selbst Amazon Spezialisten waren beeindruckt, wie leicht sie durch die Aufgaben kamen und wie ähnlich das Setup zu ihren S3 Bucket & Athena Konstrukten war.