Big Data - Hands On für RealTime Analytics
Classroom Schulung | Deutsch | Anspruch
Schulungsdauer: 3 Tage
Ziele
Dieser Kurs stellt Ihnen das Thema Lösungsfindung sowie deren Umsetzung vor. In unterschiedlichen praktischen Aufgaben diskutieren Sie die Möglichkeiten der Bearbeitung und lernen die Umsetzung kennen.
Zielgruppe
- (IT-)Architekten
- (IT-)Entwickler
Voraussetzungen
- Praktische Erfahrung in der IT-Informationsverarbeitung
- Grundkenntnisse zu Hadoop
- Anwendung von Programmiersprachen
Agenda
Anforderungen und Voraussetzungen für die Echtzeit-Analyse
"Echtzeit" ist nicht gleich "Echtzeit". In diesem Abschnitt lernen Sie als Anwender die Rahmenbedingungen für sowie die Anforderungen an Echtzeit-Analysen kennen. Es werden verschiedene grundsätzliche Lösungsansätze vorgestellt.
Hadoop-Sandbox
In dem ersten Modul wird die Hadoop-Sandbox vorgestellt und gemeinsam evaluiert.
Überblick Hadoop Distributed File System (HDFS)
Das Kernstück von Hadoop ist ein leistungsstarkes, robustes und extrem skalierbares Dateisystem. In diesem Abschnitt werden die wichtigsten Elemente für den Datenaustausch mit HDFS evaluiert.
Überblick MapReduce
Die Java-basierte Klassenbibliothek für MapReduce ist der Maschinenraum von Hadoop. In diesem Abschnitt erhalten Sie einen Überblick über das von Google eingeführte Programmier-modell für nebenläufige Berechnungen.
Aufbereitung von Daten unter Anwendung von MapReduce
In diesem Abschnitt evaluieren Sie Anwendung von MapReduce, um verschiedene Ausgangsdaten aufzubereiten.
Überblick Apache Storm und Apache Kafka
In diesem Abschnitt erhalten Sie einen Überblick zu Apache Kafka und Apache Storm, um in einem Hadoop-Cluster Ereignis-Daten persistieren und verarbeiten zu können.
Anwendung von Apache Storm und Apache Kafka für die RealTime-Analyse
In diesem Abschnitt wenden Sie Apache Kafka und Apache Storm an, um Ereignisdaten zeitnah zu verarbeiten.
Überblick Mahout
Mit Mahout steht in Hadoop ein Werkzeug für Data Mining Fragestellungen zur Verfügung.
Anwendung von Mahout für RealTime-Analysen
In diesem Abschnitt wenden Sie das Data Mining Werkzeug Mahout an, um Analysen auf den in Echtzeit generierten Daten durchzuführen.
Überblick zu Echtzeit (CEP) Komponenten
Sie erhalten einen Überblick zu Funktionsweise und Integration von Komponenten für das Complex Event Processing (CEP).
Anwendung von Echtzeit (CEP) Komponenten
In diesem Abschnitt evaluieren Sie eine CEP-Komponente und integrieren diese in eine gemischte Hadoop-/DWH-Umgebung.
Überblick InMemory-Speicherkonzepte
Falls eine Integration in eine gemischte Hadoop-/DWH-Umgebung Umgebung erfolgt, ist es erforderlich, Ergebnisse zeitnah zu persistieren und für weitergehende Auswertungen verfügbar zu machen. In diesem Abschnitt lernen Sie verschiedene Konzepte für die Persistierung von Daten im Speicher kennen.
Einsatz von InMemory-Speicherkonzepten für Echtzeit-Analysen
Sie evaluieren die Integration von InMemory-Konzepten in einer gemischten Hadoop-/DWH-Umgebung.
Zusammenfassung und Verallgemeinerung
Zum Abschluss werden die Ergebnisse zusammengefasst und die durchgeführten Übungen auf ihre Praxistauglichkeit untersucht sowie ein Vorgehensmodell für die RealTime-Analyse mit Hadoop abgeleitet.
Ziele
Dieser Kurs stellt Ihnen das Thema Lösungsfindung sowie deren Umsetzung vor. In unterschiedlichen praktischen Aufgaben diskutieren Sie die Möglichkeiten der Bearbeitung und lernen die Umsetzung kennen.
Zielgruppe
- (IT-)Architekten
- (IT-)Entwickler
Voraussetzungen
- Praktische Erfahrung in der IT-Informationsverarbeitung
- Grundkenntnisse zu Hadoop
- Anwendung von Programmiersprachen
Agenda
Anforderungen und Voraussetzungen für die Echtzeit-Analyse
"Echtzeit" ist nicht gleich "Echtzeit". In diesem Abschnitt lernen Sie als Anwender die Rahmenbedingungen für sowie die Anforderungen an Echtzeit-Analysen kennen. Es werden verschiedene grundsätzliche Lösungsansätze vorgestellt.
Hadoop-Sandbox
In dem ersten Modul wird die Hadoop-Sandbox vorgestellt und gemeinsam evaluiert.
Überblick Hadoop Distributed File System (HDFS)
Das Kernstück von Hadoop ist ein leistungsstarkes, robustes und extrem skalierbares Dateisystem. In diesem Abschnitt werden die wichtigsten Elemente für den Datenaustausch mit HDFS evaluiert.
Überblick MapReduce
Die Java-basierte Klassenbibliothek für MapReduce ist der Maschinenraum von Hadoop. In diesem Abschnitt erhalten Sie einen Überblick über das von Google eingeführte Programmier-modell für nebenläufige Berechnungen.
Aufbereitung von Daten unter Anwendung von MapReduce
In diesem Abschnitt evaluieren Sie Anwendung von MapReduce, um verschiedene Ausgangsdaten aufzubereiten.
Überblick Apache Storm und Apache Kafka
In diesem Abschnitt erhalten Sie einen Überblick zu Apache Kafka und Apache Storm, um in einem Hadoop-Cluster Ereignis-Daten persistieren und verarbeiten zu können.
Anwendung von Apache Storm und Apache Kafka für die RealTime-Analyse
In diesem Abschnitt wenden Sie Apache Kafka und Apache Storm an, um Ereignisdaten zeitnah zu verarbeiten.
Überblick Mahout
Mit Mahout steht in Hadoop ein Werkzeug für Data Mining Fragestellungen zur Verfügung.
Anwendung von Mahout für RealTime-Analysen
In diesem Abschnitt wenden Sie das Data Mining Werkzeug Mahout an, um Analysen auf den in Echtzeit generierten Daten durchzuführen.
Überblick zu Echtzeit (CEP) Komponenten
Sie erhalten einen Überblick zu Funktionsweise und Integration von Komponenten für das Complex Event Processing (CEP).
Anwendung von Echtzeit (CEP) Komponenten
In diesem Abschnitt evaluieren Sie eine CEP-Komponente und integrieren diese in eine gemischte Hadoop-/DWH-Umgebung.
Überblick InMemory-Speicherkonzepte
Falls eine Integration in eine gemischte Hadoop-/DWH-Umgebung Umgebung erfolgt, ist es erforderlich, Ergebnisse zeitnah zu persistieren und für weitergehende Auswertungen verfügbar zu machen. In diesem Abschnitt lernen Sie verschiedene Konzepte für die Persistierung von Daten im Speicher kennen.
Einsatz von InMemory-Speicherkonzepten für Echtzeit-Analysen
Sie evaluieren die Integration von InMemory-Konzepten in einer gemischten Hadoop-/DWH-Umgebung.
Zusammenfassung und Verallgemeinerung
Zum Abschluss werden die Ergebnisse zusammengefasst und die durchgeführten Übungen auf ihre Praxistauglichkeit untersucht sowie ein Vorgehensmodell für die RealTime-Analyse mit Hadoop abgeleitet.