HDFS - Vertiefung
Classroom Schulung | Deutsch | Anspruch
Schulungsdauer: 2 Tage
Ziele
In diesem Vertiefungs-Workshop lernt der Teilnehmer Details zu HDFS kennen und übt den grundsätzlichen Umgang mit HDFS anhand praktischer, aufeinander aufsetzenden Übungen.
Zielgruppe
(IT-)Architekt und (IT-)EntwicklerVoraussetzungen
Linux-Grundkenntnisse sowie Grundkenntnisse über „Big Data“ und Hadoop. Idealerweise ist das Seminar Hadoop Überblick absolviert worden.Agenda
Einführung (ca. 60 Minuten)
In diesem Abschnitt wird der zur Verfügung stehende Hadoop-Cluster auf Basis HortonWorks HDP mit vier Knoten vorgestellt.
Hadoop Distributed File System (HDFS) im Detail (ca. 120 Minuten)
Das verteilte Dateisystem HDFS wird im Detail vorgestellt.
HandsOn: Arbeiten mit der Shell (ca. 120 Minuten)
Die Teilnehmer evaluieren in diesem Abschnitt die Möglichkeiten der Kommandozeilen-Eingabe für HDFS
HandsOn: Arbeiten mit dfsadmin (ca. 90 Minuten)
Die Einsatzmöglichkeiten des Verwaltungswerkzeuges dfsadmin werden vorgestellt und evaluiert.
HandsOn: Berechtigungen (ca. 30 Minuten)
Die Teilnehmer verschaffen sich einen Überblick über die grundsätzlichen Berechtigungen in HDFS
HandsOn: Verschlüsselung von Daten (ca. 60 Minuten)
Die Teilnehmer evaluieren die Möglichkeiten der Verschlüsselung von Daten
HandsOn: Archivierung von Daten (ca. 60 Minuten)
Die Teilnehmer evaluieren die Möglichkeiten der Archivierung von Daten
HandsOn: Komprimierung von Daten (ca. 60 Minuten)
Die Teilnehmer evaluieren die Möglichkeiten der Komprimierung von Daten
HandsOn: Blockanalyse (ca. 90 Minuten)
In diesem Abschnitt werden Details der Blockverteilung und ihrer Analyse vorgestellt und evaluiert.
HandsOn: HDFS HouseKeeping (ca. 90 Minuten)
In diesem Abschnitt warden verschiedene praktische Szenarien für die Pflege der Daten evaluiert
Zusammenfassung (ca. 60 Minuten)
Zum Abschluss werden die Ergebnisse zusammengefasst und die durchgeführten Übungen auf ihre Praxistauglichkeit bewertet.
Ziele
In diesem Vertiefungs-Workshop lernt der Teilnehmer Details zu HDFS kennen und übt den grundsätzlichen Umgang mit HDFS anhand praktischer, aufeinander aufsetzenden Übungen.
Zielgruppe
(IT-)Architekt und (IT-)EntwicklerVoraussetzungen
Linux-Grundkenntnisse sowie Grundkenntnisse über „Big Data“ und Hadoop. Idealerweise ist das Seminar Hadoop Überblick absolviert worden.Agenda
Einführung (ca. 60 Minuten)
In diesem Abschnitt wird der zur Verfügung stehende Hadoop-Cluster auf Basis HortonWorks HDP mit vier Knoten vorgestellt.
Hadoop Distributed File System (HDFS) im Detail (ca. 120 Minuten)
Das verteilte Dateisystem HDFS wird im Detail vorgestellt.
HandsOn: Arbeiten mit der Shell (ca. 120 Minuten)
Die Teilnehmer evaluieren in diesem Abschnitt die Möglichkeiten der Kommandozeilen-Eingabe für HDFS
HandsOn: Arbeiten mit dfsadmin (ca. 90 Minuten)
Die Einsatzmöglichkeiten des Verwaltungswerkzeuges dfsadmin werden vorgestellt und evaluiert.
HandsOn: Berechtigungen (ca. 30 Minuten)
Die Teilnehmer verschaffen sich einen Überblick über die grundsätzlichen Berechtigungen in HDFS
HandsOn: Verschlüsselung von Daten (ca. 60 Minuten)
Die Teilnehmer evaluieren die Möglichkeiten der Verschlüsselung von Daten
HandsOn: Archivierung von Daten (ca. 60 Minuten)
Die Teilnehmer evaluieren die Möglichkeiten der Archivierung von Daten
HandsOn: Komprimierung von Daten (ca. 60 Minuten)
Die Teilnehmer evaluieren die Möglichkeiten der Komprimierung von Daten
HandsOn: Blockanalyse (ca. 90 Minuten)
In diesem Abschnitt werden Details der Blockverteilung und ihrer Analyse vorgestellt und evaluiert.
HandsOn: HDFS HouseKeeping (ca. 90 Minuten)
In diesem Abschnitt warden verschiedene praktische Szenarien für die Pflege der Daten evaluiert
Zusammenfassung (ca. 60 Minuten)
Zum Abschluss werden die Ergebnisse zusammengefasst und die durchgeführten Übungen auf ihre Praxistauglichkeit bewertet.