| Ort: | Berlin |
| Datum: | Donnerstag, 16. April 2026 |
| Zeit: | Donnerstag – 9:00 bis ca. 17:00 Uhr ab 18:00 in denselben Räumen: dbt meetup |
| Kosten: | Teilnahmegebühr (bis zum 4. April 2026): 120,- € für Mitglieder, 140,- € für Nicht-Mitglieder. Late Bird (nach dem 4. April 2026): 140,- € für Mitglieder, 160,- € für Nicht-Mitglieder. |
Agenda:
Donnerstag, 16. April 2026:
| Uhrzeit | Titel |
|---|---|
| 08:30 - 9:00 | Kaffee - Get together |
| 09:00 - 9:15 | Begrüssung Vorstand der DDVUG |
| 09:15 - 10:15 | Data, Ducks and Data Vault Wie schafft man es, im Disneyland möglichst viele Attraktionen zu fahren, alle Shows zu sehen – und dabei nicht völlig den Verstand zu verlieren? In diesem Vortrag zeige ich, wie sich mit einem Data Vault sogar ein Familienurlaub optimieren lässt. Ein Geschäftswertmodell misst den „magischen ROI“ eines Parkbesuchs: die gewichtete Anzahl gefahrener Attraktionen in Relation zu maximalen Wartezeiten. Das zugrunde liegende Datenmodell sorgt dafür, dass Spaß und Struktur endlich zusammenfinden. Unsere Thesen: Daten schlagen Bauchgefühl (meistens). Und wer plant, hat länger Freude am Chaos. Tests und Learnings zeigen: Auch im Disneyland gilt – wer seine Daten kennt, hat die Nase vorn beim Achterbahn-Marathon. Petr Beles, datavaultbuilder |
| 10:15 - 10:30 | Kafeepause |
| 10:30 - 11:30 | KI als Katalysator in der Informationsmodellierung: Zwischen Automatisierung und unternehmensspezifischer Realität Datenmodellierung ist das Fundament erfolgreicher KI-Systeme. Doch kann KI selbst Datenmodelle erstellen? Die Praxis zeigt: Definitionen von „Kunde" oder „Produkt" sind zu unternehmensspezifisch für automatisierte Generierung. Allerdings kann KI den Modellierungsprozess wirksam unterstützen – etwa durch Transkription von Anforderungsgesprächen und KI-gestützte Identifikation zentraler Geschäftsobjekte. In Kombination mit Templates lassen sich Definitionen effizient vorausfüllen. Der Vortrag zeigt, wie dieser hybride Ansatz die Geschwindigkeit von KI mit dem Domänenwissen der Fachexperten verbindet und welche Trends die Zukunft der Datenmodellierung prägen. Dirk Lerner, tedamoh |
| 11:30 - 12:30 | Willibald-Challenge mit agentischer Assitenz - Automate the Automation Wir schauen uns einen kompletten Durchlauf von A bis Z anhand des Willibald-Datensatzes der DDVUG an. Wir nutzen dafür Exasol Personal, den offiziellen dbt-exasol Adapter und datavault4dbt Makros. Das Beste daran: Wir müssen kaum selbst programmieren. Stattdessen sehen wir, wie aus einem fachlichen Datenmodell in wenigen Schritten ein Datenprodukt für KI-Agenten entsteht. Zum Einsatz kommen dabei KI-Agentendefinitionen, Jinja-Templates und der dbt Semantik Layer. Torsten Glunde, Alligator |
| 12:30 - 13:30 | Gemeinsames Mittagessen |
| 13:30 - 14:30 | Und wenn wir doch mal auch den Data Mart automatisieren? Den Data Mart kann man nicht automatisieren, da ist zuviel Varianz drin. Hat man mir mal gesagt. Und es stimmt, es gibt keinen klaren, ausdefinierten Weg vom Data Vault zum dimensionalen Modell. Nicht in dem Sinn, wie Ralph Kimball das dimensionale Modell ausdefiniert hat. Wenn man aber die Kennzahlen und die Faktentabellen typisiert, die Zeit einheitlich gestaltet und die slowly changing dimensions durch ein bessere Nutzung der bestehenden Historien ersetzt. Und dann noch den Weg von der Kennzahl zur Dimension per Metadaten festlegt - steht einer vollständigen Automation nichts im weg. Von dem Konzepten bis zu den Metadaten mit einem kleinen Prototypen zur Generierung. Und einem Ausblick auf die komplette Generierung des DWH. Michael Müller, m2data |
| 14:30 - 14:45 | Kaffeepause |
| 14:45 - 15:45 | Spec-Driven Development – Ein Heilmittel gegen den „Vibe-Coding“-Kater Im Jahr 2025 erlebten wir den Einzug der KI in die Welt der Software und Daten. Jeder experimentiert oder erstellt Proof-of-Concepts. Aber was ist, wenn man mit KI produktive Software entwickeln möchte? Wie verwandelt man Prompts in funktionierende Software? Der Vortrag untersucht, was Spec-Driven Development mit KI für das Programmieren bedeutet, welche Tools es gibt und wie man „Vibe Coding“ in Agentic Engineering verwandelt. Marco Nätlitz, Exasol |
| 15:45 - 16:00 | Kaffeepause |
| 16:00 - 17:00 | Erfolgreiche Projekte – die entscheidenden Best Practices Welches sind die Schlüsselkomponenten erfolgreicher Analytics-Projekte? Sind Data Culture, Modern Data Stack und erstklassige Tools echte Game-Changer? Erfolgreiche Analytics-Projekte setzen auf mehr als nur moderne Technologie und Hype-Themen – sie legen ihren Fokus auf: · Potenziale bei der Datenstrategie · Verbesserte Einbindung der Stakeholder · Etablierung von Vorgehensmethoden - Einführung einer datenmodellbasierten Business-Analyse · Umsetzung der Data Governance Der Vortrag zeigt, wie diese Methoden zusammenwirken und BI-/Analytics-Projekte entscheidend voranbringen. Peer M. Carlson, b.telligent |
| ca. 17:00 | Wrap-up Frühjahrstagung |
| 18:00 - 21:00 | dbt meetup 6:30 PM: Welcome Remarks 🎤 (Torsten Glunde, DDVUG) 6:40 PM: What’s new with dbt? 🎤 (Stephan Durry / Lucas Silbernagel, dbt Labs) 6:55 PM: 1. Talk: Model-driven Platform automation with dbt 🎤(Torsten Glunde, DDVUG) 7:15 PM: Break 7:30 PM: 2. Talk: From Events to Decisions: Data Engineering in a Blue-Collar Hiring Marketplace 🎤 (Shpat Cheliku, PowerUs) 7:50 PM: Networking & Reception |
Teilnehmer sind automatisch auch am dbt meetup angemeldet.
Anmeldung:
Tagungsort:
Jugendherberge Berlin Ostkreuz
Marktstraße 9-12
10317 Berlin
Open Street Map zur Jugendherberge Berlin Ostkreuz
