HDFS - Vertiefung

nicht mehr verfügbar

Classroom Schulung | Deutsch | Anspruch

Schulungsdauer: 2 Tage

Ziele

In diesem Vertiefungs-Workshop lernt der Teilnehmer Details zu HDFS kennen und übt den grundsätzlichen Umgang mit HDFS anhand praktischer, aufeinander aufsetzenden Übungen.

Zielgruppe

(IT-)Architekt und (IT-)Entwickler

Voraussetzungen

Linux-Grundkenntnisse sowie Grundkenntnisse über „Big Data“ und Hadoop. Idealerweise ist das Seminar Hadoop Überblick absolviert worden.

Agenda

Einführung (ca. 60 Minuten)
In diesem Abschnitt wird der zur Verfügung stehende Hadoop-Cluster auf Basis HortonWorks HDP mit vier Knoten vorgestellt.

Hadoop Distributed File System (HDFS) im Detail (ca. 120 Minuten)
Das verteilte Dateisystem HDFS wird im Detail vorgestellt.

HandsOn: Arbeiten mit der Shell (ca. 120 Minuten)
Die Teilnehmer evaluieren in diesem Abschnitt die Möglichkeiten der Kommandozeilen-Eingabe für HDFS

HandsOn: Arbeiten mit dfsadmin (ca. 90 Minuten)
Die Einsatzmöglichkeiten des Verwaltungswerkzeuges dfsadmin werden vorgestellt und evaluiert.

HandsOn: Berechtigungen (ca. 30 Minuten)
Die Teilnehmer verschaffen sich einen Überblick über die grundsätzlichen Berechtigungen in HDFS

HandsOn: Verschlüsselung von Daten (ca. 60 Minuten)
Die Teilnehmer evaluieren die Möglichkeiten der Verschlüsselung von Daten

HandsOn: Archivierung von Daten (ca. 60 Minuten)
Die Teilnehmer evaluieren die Möglichkeiten der Archivierung von Daten

HandsOn: Komprimierung von Daten (ca. 60 Minuten)
Die Teilnehmer evaluieren die Möglichkeiten der Komprimierung von Daten

HandsOn: Blockanalyse (ca. 90 Minuten)
In diesem Abschnitt werden Details der Blockverteilung und ihrer Analyse vorgestellt und evaluiert.

HandsOn: HDFS HouseKeeping (ca. 90 Minuten)
In diesem Abschnitt warden verschiedene praktische Szenarien für die Pflege der Daten evaluiert

Zusammenfassung (ca. 60 Minuten)
Zum Abschluss werden die Ergebnisse zusammengefasst und die durchgeführten Übungen auf ihre Praxistauglichkeit bewertet.

Ziele

In diesem Vertiefungs-Workshop lernt der Teilnehmer Details zu HDFS kennen und übt den grundsätzlichen Umgang mit HDFS anhand praktischer, aufeinander aufsetzenden Übungen.

Zielgruppe

(IT-)Architekt und (IT-)Entwickler

Voraussetzungen

Linux-Grundkenntnisse sowie Grundkenntnisse über „Big Data“ und Hadoop. Idealerweise ist das Seminar Hadoop Überblick absolviert worden.

Agenda

Einführung (ca. 60 Minuten)
In diesem Abschnitt wird der zur Verfügung stehende Hadoop-Cluster auf Basis HortonWorks HDP mit vier Knoten vorgestellt.

Hadoop Distributed File System (HDFS) im Detail (ca. 120 Minuten)
Das verteilte Dateisystem HDFS wird im Detail vorgestellt.

HandsOn: Arbeiten mit der Shell (ca. 120 Minuten)
Die Teilnehmer evaluieren in diesem Abschnitt die Möglichkeiten der Kommandozeilen-Eingabe für HDFS

HandsOn: Arbeiten mit dfsadmin (ca. 90 Minuten)
Die Einsatzmöglichkeiten des Verwaltungswerkzeuges dfsadmin werden vorgestellt und evaluiert.

HandsOn: Berechtigungen (ca. 30 Minuten)
Die Teilnehmer verschaffen sich einen Überblick über die grundsätzlichen Berechtigungen in HDFS

HandsOn: Verschlüsselung von Daten (ca. 60 Minuten)
Die Teilnehmer evaluieren die Möglichkeiten der Verschlüsselung von Daten

HandsOn: Archivierung von Daten (ca. 60 Minuten)
Die Teilnehmer evaluieren die Möglichkeiten der Archivierung von Daten

HandsOn: Komprimierung von Daten (ca. 60 Minuten)
Die Teilnehmer evaluieren die Möglichkeiten der Komprimierung von Daten

HandsOn: Blockanalyse (ca. 90 Minuten)
In diesem Abschnitt werden Details der Blockverteilung und ihrer Analyse vorgestellt und evaluiert.

HandsOn: HDFS HouseKeeping (ca. 90 Minuten)
In diesem Abschnitt warden verschiedene praktische Szenarien für die Pflege der Daten evaluiert

Zusammenfassung (ca. 60 Minuten)
Zum Abschluss werden die Ergebnisse zusammengefasst und die durchgeführten Übungen auf ihre Praxistauglichkeit bewertet.

Tags