Dieses Seminar konzentriert sich auf die eigentliche Arbeit mit Apache Hadoop: Daten im HDFS ablegen, verarbeiten, überwachen und die Job-Ausführung über YARN technisch sauber verstehen. Es geht also nicht um Hochglanzarchitektur, sondern um das, was im Datenpfad tatsächlich passiert.
Die Dauer von drei Tagen ist notwendig, weil HDFS, YARN und MapReduce zwar schnell benannt, aber nicht schnell verstanden sind. Erst wenn Datenwege, Job-Lebenszyklus, Partitionierung, Fehlersituationen und Ausführungsdetails gemeinsam betrachtet werden, entsteht ein belastbares Praxisbild.
Im Seminar werden die typischen Schritte vom Dateiupload über die Verteilung im Cluster bis zur Auswertung von Jobs nachvollzogen. Dabei wird deutlich, wie Datenlokalität, Input Splits, Ressourcensteuerung, Counter und Fehlermeldungen zusammenwirken und warum manche Jobs sauber durchlaufen, andere aber teuer, langsam oder instabil werden.
Schwerpunkte:
- Arbeiten mit HDFS, Verzeichnisstrukturen, Dateizugriff und Datenablage
- YARN als Laufzeit- und Ressourcenebene für verteilte Jobs
- Funktionsweise von Map, Shuffle, Reduce, Partitionierung und Combiner
- Job-Start, Monitoring, Counter, Fehlersuche und Laufzeitanalyse
- Datenlokalität, Parallelität und praktische Auswirkungen auf Laufzeiten
- Typische Fehlerbilder in Jobs und saubere Analysewege
Zielgruppe: Das Seminar richtet sich an technische Rollen, die Datenverarbeitung im Cluster nicht nur aus der Theorie kennen wollen.
Seminar und Anbieter vergleichen
Öffentliche Schulung
Diese Seminarform ist auch als Präsenzseminar bekannt und bedeutet, dass Sie in unseren Räumlichkeiten von einem Trainer vor Ort geschult werden. Jeder Teilnehmer hat einen Arbeitsplatz mit virtueller Schulungsumgebung. Öffentliche Seminare werden in deutscher Sprache durchgeführt, die Unterlagen sind teilweise in Englisch.
Inhausschulung
Diese Seminarform bietet sich für Unternehmen an, welche gleiche mehrere Teilnehmer gleichzeitig schulen möchten. Der Trainer kommt zu Ihnen ins Haus und unterrichtet in Ihren Räumlichkeiten. Diese Seminare können in Deutsch - bei Firmenseminaren ist auch Englisch möglich gebucht werden.
Webinar
Diese Art der Schulung ist geeignet, wenn Sie die Präsenz eines Trainers nicht benötigen, nicht Reisen können und über das Internet an einer Schulung teilnehmen möchten.
Fachbereichsleiter / Leiter der Trainer / Ihre Ansprechpartner
-

René Launa
Telefon: + 43 (720) 022000
E-Mail: rené.launa@seminar-experts.at -

Adam Steyer
Telefon: + 43 (720) 022000
E-Mail:
Seminardetails
| Dauer: | 3 Tage ca. 6 h/Tag, Beginn 1. Tag: 10:00 Uhr, weitere Tage 09:00 Uhr |
| Preis: |
Öffentlich und Webinar: € 1.797 zzgl. MwSt. Inhaus: € 5.100 zzgl. MwSt. |
| Teilnehmeranzahl: | min. 2 - max. 8 |
| Teilnehmer: | Data Engineers, Entwickler, technische Analysten, Administratoren mit Datenfokus |
| Voraussetzungen: | Linux-Grundlagen; Basiswissen zu Hadoop oder Besuch des Grundlagenseminars empfohlen |
| Standorte: | Bregenz, Graz, Innsbruck, Klagenfurt, Linz, Salzburg, Wien |
| Methoden: | Vortrag, Demonstrationen, praktische Übungen am System |
| Seminararten: | Öffentlich, Webinar, Inhaus, Workshop - Alle Seminare mit Trainer vor Ort, Webinar nur wenn ausdrücklich gewünscht |
| Durchführungsgarantie: | ja, ab 2 Teilnehmern |
| Sprache: | Deutsch - bei Firmenseminaren ist auch Englisch möglich |
| Seminarunterlage: | Dokumentation auf Datenträger oder als Download |
| Teilnahmezertifikat: | ja, selbstverständlich |
| Verpflegung: | Kalt- / Warmgetränke, Mittagessen (wahlweise vegetarisch) |
| Support: | 3 Anrufe im Seminarpreis enthalten |
| Barrierefreier Zugang: | an den meisten Standorten verfügbar |
| Weitere Informationen unter + 43 (720) 022000 |
Seminartermine
Die Ergebnissliste kann durch Anklicken der Überschrift neu sortiert werden.
