Hadoop und Java

Classroom Schulung | deutsch | Anspruch

Schulungsdauer: 3 Tage

Ziele

In diesem Kurs lernen Sie aufbauend auf einer Strukturierung der möglichen Datenhaltungen (Dateisystem HDFS, SQL oder NoSQL) in Hadoop unterschiedliche Einsatzmöglichkeiten von Java kennen und praktisch anzuwenden. Außerdem erhalten Sie einen Einblick in zwei praxisorientierte Use Cases in ganzheitlichen Lösungsszenarien.

Weitere Kursinfos:

  • Schwierigkeitsgrad: 300
  • Darreichung: PowerPoint-Präsentation, Live-Demos sowie eigenständige Übungen (Labs) der Teilnehmer. Der Anteil eigenständiger Übungen beträgt etwa 50 %.
  • Materialien: Präsentation in elektronischer Form (Format .PDF). Übungsunterlagen in gedruckter und elektronischer Form. Die für die Übungen erforderliche IT-Infrastruktur wird in virtualisierter Form bereitgestellt.
  • Credits: Ja

Zielgruppe

  • (IT-)Architekt
  • (IT-)Entwickler

Voraussetzungen

Praktische Erfahrung in der IT-Informationsverarbeitung erforderlich. Kenntnisse im Einsatz relationaler Datenbanken sowie Kenntnisse über Big Data und die Programmiersprache Java werden vorausgesetzt.

Folgende Seminare und Kurse zur Auffrischung der Kenntnisse um Big Data können hilfreich sein:

1) Einstiegs-Seminare (Schwierigkeitsgrad 100)

a. Big Data Einstieg
b. Big Data – Technologien, Strategien und Trends
c. Hortonworks HDP Einstieg
d. Cloudera CDH Einstieg

2) Überblicks-Seminare (Schwierigkeitsgrad 200)

a. Big Data Architekturen Überblick
b. Hadoop Datentechnologien Überblick
c. NoSQL Überblick

Folgende Kurse können darüber hinaus dieses Angebot ergänzen:

3) Vertiefungs-Kurse (Schwierigkeitsgrad 300)

a. Apache Spark Grundlagen Vertiefung
b. Apache Spark SQL Vertiefung
c. Apache Spark ML Vertiefung
d. Apache Spark Streaming Vertiefung
e. Hadoop und Python – Vertiefung
f. Data Scientist Methoden Vertiefung

4) Spezialisierungskurse (Schwierigkeitsgrad 400)

a. Data Scientist Tools Vertiefung
b. Data Engineer Tools Vertiefung

Agenda

Datenstrukturen in Hadoop und Vorgehensmodell für die Datenanalyse

In diesem Abschnitt wird ein Überblick zu Hadoop gegeben und die in nachfolgenden Abschnitten vertieften Komponenten im Zusammenhang dargestellt. Ausführlich wird auf die verschiedenen Speichermöglichkeiten von Daten im Hadoop-Cluster eingegangen und die erforderlichen Schlussfolgerungen für das Vorgehen zur Datenanalyse gezogen.

Nutzung von Java in einer Hadoop-Umgebung

Da die einzelnen Komponenten des Hadoop-Ökosystems fast ausschließlich in Java programmiert sind, verfügen sie über entsprechende APIs, die einen programmatischen Zugriff erlauben. Ausführlich wird erläutert, welche Versionen unterstützt werden und welche Tools eingesetzt werden können. Sie aktivieren in diesem Abschnitt ihren simulierten Hadoop-Cluster und überprüfen die Konfiguration für Java.

Hive und Java

Hive stellt eine Möglichkeit zur Verfügung, um auf strukturierte Daten in Hadoop mit SQL-ähnlichen Abfragen zugreifen zu können. Dazu wird Hive im Überblick vorgestellt. Sie evaluieren die Java-Schnittstelle für den programmatischen Zugriff auf Hive.

HBase und Java

HBase ist eine häufig eingesetzte NoSQL Datenbank in Hadoop, die in einem Überblick vorgestellt wird. Mit dem Java-API ist ein programmatischer Zugriff zur Datendefinition und Datenmanipulation möglich. Die Teilnehmer setzen einfache administrative Aufgabenstellungen in Java um und programmieren den Datenzugriff.

Kafka und Java

Kafka ist eine verteilte Messaging-Komponente für Hadoop. Aufbauend auf einem Überblick zu Kafka werden einfache Producer und Consumer in Java erstellt.

Spark und Java

Aufbauend auf einem Überblick zu Spark (mit den Schwerpunkten Spark Core, Spark SQL, Spark MLLib und Spark Streaming) werden die Nutzungsmöglichkeiten von Java aufgezeigt und praktisch angewendet.

Praxis 1: Speicherung und Auswertung von Logdateien in Hadoop mit Java

In einem praxisorientierten Use Case wird die Erhebung, Speicherung und Auswertung von Loginformationen thematisiert und verschiedene Lösungsansätze für die Umsetzung auf Basis von Java diskutiert. Sie setzen diese Aufgabenstellung eigenständig um.

Praxis 2: Analyse von Textinhalten in Hadoop mit Java

In einem weiteren Use Case wird der Schwerpunkt auf die Analyse von Textinhalten gelegt und verschiedene Lösungsansätze für die Umsetzung auf Basis von Java diskutiert. Sie setzen diese Aufgabenstellung eigenständig um.

Ziele

In diesem Kurs lernen Sie aufbauend auf einer Strukturierung der möglichen Datenhaltungen (Dateisystem HDFS, SQL oder NoSQL) in Hadoop unterschiedliche Einsatzmöglichkeiten von Java kennen und praktisch anzuwenden. Außerdem erhalten Sie einen Einblick in zwei praxisorientierte Use Cases in ganzheitlichen Lösungsszenarien.

Weitere Kursinfos:

  • Schwierigkeitsgrad: 300
  • Darreichung: PowerPoint-Präsentation, Live-Demos sowie eigenständige Übungen (Labs) der Teilnehmer. Der Anteil eigenständiger Übungen beträgt etwa 50 %.
  • Materialien: Präsentation in elektronischer Form (Format .PDF). Übungsunterlagen in gedruckter und elektronischer Form. Die für die Übungen erforderliche IT-Infrastruktur wird in virtualisierter Form bereitgestellt.
  • Credits: Ja

Zielgruppe

  • (IT-)Architekt
  • (IT-)Entwickler

Voraussetzungen

Praktische Erfahrung in der IT-Informationsverarbeitung erforderlich. Kenntnisse im Einsatz relationaler Datenbanken sowie Kenntnisse über Big Data und die Programmiersprache Java werden vorausgesetzt.

Folgende Seminare und Kurse zur Auffrischung der Kenntnisse um Big Data können hilfreich sein:

1) Einstiegs-Seminare (Schwierigkeitsgrad 100)

a. Big Data Einstieg
b. Big Data – Technologien, Strategien und Trends
c. Hortonworks HDP Einstieg
d. Cloudera CDH Einstieg

2) Überblicks-Seminare (Schwierigkeitsgrad 200)

a. Big Data Architekturen Überblick
b. Hadoop Datentechnologien Überblick
c. NoSQL Überblick

Folgende Kurse können darüber hinaus dieses Angebot ergänzen:

3) Vertiefungs-Kurse (Schwierigkeitsgrad 300)

a. Apache Spark Grundlagen Vertiefung
b. Apache Spark SQL Vertiefung
c. Apache Spark ML Vertiefung
d. Apache Spark Streaming Vertiefung
e. Hadoop und Python – Vertiefung
f. Data Scientist Methoden Vertiefung

4) Spezialisierungskurse (Schwierigkeitsgrad 400)

a. Data Scientist Tools Vertiefung
b. Data Engineer Tools Vertiefung

Agenda

Datenstrukturen in Hadoop und Vorgehensmodell für die Datenanalyse

In diesem Abschnitt wird ein Überblick zu Hadoop gegeben und die in nachfolgenden Abschnitten vertieften Komponenten im Zusammenhang dargestellt. Ausführlich wird auf die verschiedenen Speichermöglichkeiten von Daten im Hadoop-Cluster eingegangen und die erforderlichen Schlussfolgerungen für das Vorgehen zur Datenanalyse gezogen.

Nutzung von Java in einer Hadoop-Umgebung

Da die einzelnen Komponenten des Hadoop-Ökosystems fast ausschließlich in Java programmiert sind, verfügen sie über entsprechende APIs, die einen programmatischen Zugriff erlauben. Ausführlich wird erläutert, welche Versionen unterstützt werden und welche Tools eingesetzt werden können. Sie aktivieren in diesem Abschnitt ihren simulierten Hadoop-Cluster und überprüfen die Konfiguration für Java.

Hive und Java

Hive stellt eine Möglichkeit zur Verfügung, um auf strukturierte Daten in Hadoop mit SQL-ähnlichen Abfragen zugreifen zu können. Dazu wird Hive im Überblick vorgestellt. Sie evaluieren die Java-Schnittstelle für den programmatischen Zugriff auf Hive.

HBase und Java

HBase ist eine häufig eingesetzte NoSQL Datenbank in Hadoop, die in einem Überblick vorgestellt wird. Mit dem Java-API ist ein programmatischer Zugriff zur Datendefinition und Datenmanipulation möglich. Die Teilnehmer setzen einfache administrative Aufgabenstellungen in Java um und programmieren den Datenzugriff.

Kafka und Java

Kafka ist eine verteilte Messaging-Komponente für Hadoop. Aufbauend auf einem Überblick zu Kafka werden einfache Producer und Consumer in Java erstellt.

Spark und Java

Aufbauend auf einem Überblick zu Spark (mit den Schwerpunkten Spark Core, Spark SQL, Spark MLLib und Spark Streaming) werden die Nutzungsmöglichkeiten von Java aufgezeigt und praktisch angewendet.

Praxis 1: Speicherung und Auswertung von Logdateien in Hadoop mit Java

In einem praxisorientierten Use Case wird die Erhebung, Speicherung und Auswertung von Loginformationen thematisiert und verschiedene Lösungsansätze für die Umsetzung auf Basis von Java diskutiert. Sie setzen diese Aufgabenstellung eigenständig um.

Praxis 2: Analyse von Textinhalten in Hadoop mit Java

In einem weiteren Use Case wird der Schwerpunkt auf die Analyse von Textinhalten gelegt und verschiedene Lösungsansätze für die Umsetzung auf Basis von Java diskutiert. Sie setzen diese Aufgabenstellung eigenständig um.

Tags

Diese Seite weiterempfehlen