Big Data - Hands On für DWH Integration

Classroom training | German | Claim

Duration of training: 3 days

Objectives

In diesem Kurs erhalten Sie einen Einblick in Lösungsfindung und Umsetzung. Anhand praktischer Aufgabenstellungen diskutieren Sie Möglichkeiten ihrer Bearbeitung und können Erfahrung in der Umsetzung sammeln.

Target audience

  • (IT-)Architekten
  • (IT-)Entwickler

Requirements

  • Praktische Erfahrung in der IT-Informationsverarbeitung
  • Grundkenntnisse zu Hadoop
  • Anwendung von Programmiersprachen

Agenda

Hadoop-Sandbox

In dem ersten Modul wird die Hadoop-Sandbox vorgestellt und gemeinsam evaluiert.

Überblick Hadoop Distributed File System (HDFS)

Das Kernstück von Hadoop ist ein leistungsstarkes, robustes und extrem skalierbares Dateisystem. In diesem Abschnitt werden die wichtigsten Elemente für den Datenaustausch mit HDFS evaluiert.

Überblick Sqoop

Sqoop ist ein Werkzeug, um Daten für Hadoop aus einer relationalen Quelle zu entladen oder aus Hadoop in ein RDBMS zu laden.

Import in und Export aus HDFS von Daten unter Verwendung von Sqoop

In diesem Abschnitt evaluieren Sie Im- und Export von Daten aus der Shell sowie den Einsatz von Sqoop für den Datenaustausch mit einer relationalen Datenbank.

Überblick MapReduce

Die Java-basierte Klassenbibliothek für MapReduce ist der Maschinenraum von Hadoop. In diesem Abschnitt erhalten Sie einen Überblick über das von Google eingeführte Programmiermodell für nebenläufige Berechnungen.

Überblick Hive

Mit Hive steht eine Schnittstelle zur Verfügung, die den Zugang zu strukturierten Daten in Hadoop mit einer SQL-ähnlichen Syntax erlaubt.

Anwendung von Hive und anderen Tools für verschiedene Fragestellungen

In diesem Abschnitt evaluieren Sie verschiedene praktische Fragestellungen wie beispielsweise die Verknüpfung mit externen Tabellen oder das Zusammensetzen von Strings.

Überblick Verknüpfung von Daten in Hadoop

Häufig besteht die Anforderung, eine Analyse über unterschiedliche Datenquellen durchzuführen. In diesem Abschnitt lernen Sie verschiedene Möglichkeiten kennen, wie man das in Hadoop realisieren kann.

Anwendung von MapReduce und Hive zur Verknüpfung von Daten

Basierend auf den Ausführungen des vorhergehenden Abschnittes evaluieren Sie verschiedene Datensets in Hadoop miteinander zu verknüpfen.

Anwendung von Sqoop, MapReduce und Hive zur Archivierung von Inhalten nach Hadoop

In diesem Abschnitt wenden Sie Hadoop-Werkzeuge an, um Daten aus einem relationalen System zu archivieren.

Anwendung von Sqoop, MapReduce und Hive zur Auslagerung von ETL-Aktivitäten nach Hadoop

In diesem Abschnitt wird evaluiert, wie ressourcenintensive Abschnitte eines DWH-Bewirtschaftungsprozesses nach Hadoop ausgelagert werden können.

Überblick Test und Optimierung der Lösung in Hadoop

Es wird ein Überblick zum Testen und Optimieren in Hadoop gegeben und welche Werkzeuge dafür zur Verfügung stehen.

Testen und Optimieren der Lösung in Hadoop

In diesem Abschnitt sammeln Sie erste Erfahrungen im Testen und Optimieren der erstellten Lösungen.

Zusammenfassung und Verallgemeinerung

Zum Abschluss werden die Ergebnisse zusammengefasst und die durchgeführten Übungen auf ihre Praxistauglichkeit untersucht sowie ein Vorgehensmodell für die DWH-Integration von Hadoop abgeleitet.

Objectives

In diesem Kurs erhalten Sie einen Einblick in Lösungsfindung und Umsetzung. Anhand praktischer Aufgabenstellungen diskutieren Sie Möglichkeiten ihrer Bearbeitung und können Erfahrung in der Umsetzung sammeln.

Target audience

  • (IT-)Architekten
  • (IT-)Entwickler

Requirements

  • Praktische Erfahrung in der IT-Informationsverarbeitung
  • Grundkenntnisse zu Hadoop
  • Anwendung von Programmiersprachen

Agenda

Hadoop-Sandbox

In dem ersten Modul wird die Hadoop-Sandbox vorgestellt und gemeinsam evaluiert.

Überblick Hadoop Distributed File System (HDFS)

Das Kernstück von Hadoop ist ein leistungsstarkes, robustes und extrem skalierbares Dateisystem. In diesem Abschnitt werden die wichtigsten Elemente für den Datenaustausch mit HDFS evaluiert.

Überblick Sqoop

Sqoop ist ein Werkzeug, um Daten für Hadoop aus einer relationalen Quelle zu entladen oder aus Hadoop in ein RDBMS zu laden.

Import in und Export aus HDFS von Daten unter Verwendung von Sqoop

In diesem Abschnitt evaluieren Sie Im- und Export von Daten aus der Shell sowie den Einsatz von Sqoop für den Datenaustausch mit einer relationalen Datenbank.

Überblick MapReduce

Die Java-basierte Klassenbibliothek für MapReduce ist der Maschinenraum von Hadoop. In diesem Abschnitt erhalten Sie einen Überblick über das von Google eingeführte Programmiermodell für nebenläufige Berechnungen.

Überblick Hive

Mit Hive steht eine Schnittstelle zur Verfügung, die den Zugang zu strukturierten Daten in Hadoop mit einer SQL-ähnlichen Syntax erlaubt.

Anwendung von Hive und anderen Tools für verschiedene Fragestellungen

In diesem Abschnitt evaluieren Sie verschiedene praktische Fragestellungen wie beispielsweise die Verknüpfung mit externen Tabellen oder das Zusammensetzen von Strings.

Überblick Verknüpfung von Daten in Hadoop

Häufig besteht die Anforderung, eine Analyse über unterschiedliche Datenquellen durchzuführen. In diesem Abschnitt lernen Sie verschiedene Möglichkeiten kennen, wie man das in Hadoop realisieren kann.

Anwendung von MapReduce und Hive zur Verknüpfung von Daten

Basierend auf den Ausführungen des vorhergehenden Abschnittes evaluieren Sie verschiedene Datensets in Hadoop miteinander zu verknüpfen.

Anwendung von Sqoop, MapReduce und Hive zur Archivierung von Inhalten nach Hadoop

In diesem Abschnitt wenden Sie Hadoop-Werkzeuge an, um Daten aus einem relationalen System zu archivieren.

Anwendung von Sqoop, MapReduce und Hive zur Auslagerung von ETL-Aktivitäten nach Hadoop

In diesem Abschnitt wird evaluiert, wie ressourcenintensive Abschnitte eines DWH-Bewirtschaftungsprozesses nach Hadoop ausgelagert werden können.

Überblick Test und Optimierung der Lösung in Hadoop

Es wird ein Überblick zum Testen und Optimieren in Hadoop gegeben und welche Werkzeuge dafür zur Verfügung stehen.

Testen und Optimieren der Lösung in Hadoop

In diesem Abschnitt sammeln Sie erste Erfahrungen im Testen und Optimieren der erstellten Lösungen.

Zusammenfassung und Verallgemeinerung

Zum Abschluss werden die Ergebnisse zusammengefasst und die durchgeführten Übungen auf ihre Praxistauglichkeit untersucht sowie ein Vorgehensmodell für die DWH-Integration von Hadoop abgeleitet.

Tags

Recommend this site