Administration of Hadoop Cluster Training

The training sessions are usally held in German. Please contact us if you are interested in training sessions in English.

Hadoop Developer Training bei inovex

Zielgruppe: Linux-Administratoren, Software-Entwickler (mit grundlegenden Linux-Kenntnissen)
Dauer: 3 Tage
Termin: Termine auf Anfrage
Schulungszeiten: 9 – 17 Uhr
Anzahl Teilnehmer: min. 3, max. 12
Preis: 1.800 Euro zzgl. MwSt.

In den letzten Jahren hat sich Hadoop als der Standard für Big Data Systeme durchgesetzt. Aufsetzen und Betreiben von Hadoop Clustern ist jedoch eine wesentlich komplexere Aufgabe, als etwa Aufsatz und Betrieb von Webserver-Farmen oder auch klassischen Datenbank-Clustern. Die hohe Vernetzung der Hadoop-Knoten und das „Eventual Consistency“ Paradigma, erfordern tiefgründiges Wissen über Architektur und die wesentlichen Prozesse bei Hadoop Clustern, um einen hochverfügbaren, performanten und sicheren Betrieb zu gewährleisten.

Dieses Training vermittelt eben dieses Wissen auf sehr praktische Art und Weise: die Teilnehmer bauen während des Trainings einen eigenen Hadoop Cluster auf, mit welchem dann typische Szenarien wie die Anbindung von Drittsystemen, die Erstellung eines Backups oder der Umgang mit einem ausgefallenen Knoten geübt werden.

Agenda:

  • Hadoop Grundlagen, Infrastruktur und Architektur
  • Einrichtung und Konfiguration eines Hadoop Clusters
  • Hadoop Security-Grundlagen
  • Hochverfügbarkeit für Hadoop Cluster
  • Backup- und Recovery-Strategien für Hadoop Cluster
  • Vorstellung des Ökosystems und Integration häufig verwendeter Komponenten
  • Monitoring und laufende Optimierung eines Hadoop Clusters
  • Hadoop Logfile-Analyse

Hinweis:

  • Die Kursgebühr beinhaltet Schulungsunterlagen, Teilnahmebescheinigung, Mittagessen, Getränke und Snacks
  • Die Teilnehmer müssen ein eigenes Notebook zum Training mitbringen.

Trainer:

Hans-Peter Zorn ist Big Data Scientist bei inovex. Seine Schwerpunkte sind Big Data Architekturen, Hadoop Security, Maschinelles Lernen und datengetriebene Produkte. Zuvor beschäftigte er sich am UKP Lab der TU Darmstadt mit der Analyse großer Textmengen mit Hadoop.