Apache Iceberg Intensivseminar für Data Lakehouse Engineering
Dieses fünftägige Intensivseminar ist das Komplettformat zum Thema Apache Iceberg. Es fasst Überblick, Grundlagen, Spark, Multi-Engine-Nutzung, Betrieb, Streaming, Migration und Plattformarchitektur in einem geschlossenen Lehrgang zusammen. Fünf Tage sind hier kein Luxus, sondern die sachlich notwendige Obergrenze, wenn ein Team das Thema einmal sauber und ohne Stückwerk aufbauen will.
Zielsetzung
Das Ziel ist ein durchgängiges Arbeitsbild von der strategischen Einordnung bis zum produktiven Betrieb. Nach dem Seminar liegen nicht nur Einzelthemen nebeneinander, sondern ein nachvollziehbarer Gesamtzusammenhang für Modellierung, Schreiben, Lesen, Warten, Migrieren und Integrieren von Iceberg-Tabellen in reale Plattformen.
Inhalte
- Grundlagen des Table Formats, Metadatenmodells und der Katalogarchitektur
- Tabellenaufbau, SQL-Operationen, Schema Evolution und Partitionierung
- Engineering mit Apache Spark, inklusive Write Patterns und Wartungsprozeduren
- Multi-Engine-Nutzung mit Trino, Hive und Flink
- Snapshot-Management, Compaction, Tuning und Betriebsroutinen
- Streaming, CDC, Exactly-Once-Überlegungen und Kafka Connect
- Migrationspfade von bestehenden Data Lakes und Hive-nahen Strukturen
- Governance, Referenzarchitekturen und Plattformintegration
Praxis
Im Verlauf des Intensivseminars entsteht eine zusammenhängende Übungslandschaft: von der Modellierung über das Schreiben und Abfragen bis hin zu Wartung, Migration und Streaming-Anbindung. Dadurch wird sichtbar, welche Entscheidungen sich gegenseitig beeinflussen und an welcher Stelle ein schöner Theorieplan im Alltag tatsächlich trägt oder eben nicht.
Zielgruppe
Das Format richtet sich an Teams, die nicht zwischen sieben Einzelschulungen hin und her springen wollen. Besonders geeignet ist es für Data Engineers, Architekten, Plattformteams und Projektverantwortliche, die Apache Iceberg in überschaubarer Zeit vollständig und praxisnah aufbauen müssen.
Seminardetails
| Dauer: | 5 Tage ca. 6 h/Tag, Beginn 1. Tag: 10:00 Uhr, weitere Tage 09:00 Uhr |
| Preis: |
Öffentlich und Webinar: € 2.995 zzgl. MwSt. Inhaus: € 8.500 zzgl. MwSt. |
| Teilnehmeranzahl: | min. 2 - max. 8 |
| Teilnehmer: | Data Engineers, Data Architects, Analytics Engineers, Plattformteams, Senior BI-Entwickler, technische Projektleiter |
| Voraussetzungen: | SQL-Grundkenntnisse und Erfahrung mit mindestens einer Engine wie Spark, Trino, Hive oder Flink; Data-Lake-Erfahrung ist hilfreich |
| Standorte: | Bregenz, Graz, Innsbruck, Klagenfurt, Linz, Salzburg, Wien |
| Methoden: | Vortrag, Demonstrationen, intensive Guided Labs, Architektur-Workshops, Troubleshooting-Übungen |
| Seminararten: | Öffentlich, Webinar, Inhouse, Workshop - Alle Seminare mit Trainer vor Ort, Webinar nur wenn ausdrücklich gewünscht |
| Durchführungsgarantie: | ja, ab 2 Teilnehmern |
| Sprache: | Deutsch - bei Firmenseminaren ist auch Englisch möglich |
| Seminarunterlage: | Dokumentation als Download oder auf Datenträger |
| Teilnahmezertifikat: | ja, selbstverständlich |
| Verpflegung: | Kalt- / Warmgetränke, Mittagessen (wahlweise vegetarisch) |
| Support: | 3 Anrufe im Seminarpreis enthalten |
| Barrierefreier Zugang: | an den meisten Standorten verfügbar |
| Weitere Informationen unter + 43 (720) 022000 |
Seminartermine
Die Ergebnissliste kann durch Anklicken der Überschrift neu sortiert werden.
