Die Apache Software Foundation steht im Umfeld verteilter Datenverarbeitung für robuste, offene und breit einsetzbare Plattformtechnologien. Apache Spark bildet innerhalb dieses Umfelds die zentrale Achse für verteilte Batch-Verarbeitung, Spark SQL, Streaming und produktionsnahe Datenpipelines.
Seminarportfolio
Das Portfolio deckt drei typische Bedarfsfälle ab: strategische Einordnung, schneller Praxiseinstieg und vertiefte technische Umsetzung. Dadurch lässt sich Apache Spark entweder schrittweise oder in einem durchgehenden Intensivformat aufbauen.
Empfohlene Reihenfolge
- Apache Spark Überblick für Entscheider und Architekten als fachliche Einordnung und saubere Klärung von Architektur, Rollen und Einsatzgrenzen.
- Apache Spark Kompaktseminar für den schnellen Praxiseinstieg als erster technischer Zugang mit DataFrames, Spark SQL und einfachen Jobs.
- Apache Spark Datenanalyse mit PySpark und SQL für den systematischen Ausbau in Richtung produktiver Datenverarbeitung.
- Apache Spark Streaming, Tuning und produktiver Betrieb für Echtzeitverarbeitung, Stabilität, Performance und sauberen Betrieb.
Das Apache Spark Intensivseminar: Entwicklung, Streaming und Betrieb ist die Alternative für alle, die nicht modular vorgehen möchten, sondern den Gesamtstoff in einem geschlossenen Fünf-Tage-Format benötigen.
Seminarauswahl
Seminare zu diesem Hersteller
Seminarorte:
Durchführungsgarantie für jedes Training:
ja, ab 2 Teilnehmern
Öffentlich, Webinar, Inhaus, Workshop:
ja, sehr gerne
Unterlage im Seminar:
ja, auf Datenträger oder Download
Zertifikat für Ihre Teilnahme am Training:
ja, selbstverständlich
