Big Data & Hadoop – SQL-basierter Zugriff
Classroom training | German | Claim
Duration of training: 1 day
Objectives
In diesem Kurs erhalten Sie einen Überblick zu in Hadoop verfügbaren SQL-orientierten Datentechnologien. Dabei werden sie Ihnen detailliert vorgestellt und anhand von Beispielen demonstriert.
Target audience
- (Daten-)Analysten
- IT-Architekten
- Projektmanager
Requirements
- Grundkenntnisse im Einsatz relationaler Datenbanken
- Grundkenntnisse über "Big Data" (falls nicht mit Seminar Big Data – Einführung in das Thema kombiniert).
Agenda
Überblick
In diesem Abschnitt wir ein kurzer Überblick zu Hadoop gegeben.
SQL-orientierte Komponenten in Hadoop
Die Spanne der SQL-orientierten Komponenten für Hadoop ist groß. Sie reicht von Standard-Komponenten wie Hive über mehr oder weniger proprietäre Beiträge wie Impala oder HD Hawq bis hin zu eigenständigen Lösungen auf der Basis des Hadoop-Frameworks. In diesem Abschnitt lernen Sie den aktuellen Entwicklungsstand verschiedener Lösungen kennen. Es werden verschiedene Lösungsansätze demonstriert.
Konnektivität zu externen Datenquellen
Daten dieser Welt vereinigt Euch. Egal, ob relational oder nicht-relational, mit sqoop steht ein geeignetes Werkzeug zur Verfügung, um Daten zu importieren oder zu exportieren. Zudem stehen geeignete Konnektoren (ODBC, JDBC) für den "schnellen" Datenzugriff zur Verfügung. Es werden verschiedene Lösungsszenarien demonstriert.
Objectives
In diesem Kurs erhalten Sie einen Überblick zu in Hadoop verfügbaren SQL-orientierten Datentechnologien. Dabei werden sie Ihnen detailliert vorgestellt und anhand von Beispielen demonstriert.
Target audience
- (Daten-)Analysten
- IT-Architekten
- Projektmanager
Requirements
- Grundkenntnisse im Einsatz relationaler Datenbanken
- Grundkenntnisse über "Big Data" (falls nicht mit Seminar Big Data – Einführung in das Thema kombiniert).
Agenda
Überblick
In diesem Abschnitt wir ein kurzer Überblick zu Hadoop gegeben.
SQL-orientierte Komponenten in Hadoop
Die Spanne der SQL-orientierten Komponenten für Hadoop ist groß. Sie reicht von Standard-Komponenten wie Hive über mehr oder weniger proprietäre Beiträge wie Impala oder HD Hawq bis hin zu eigenständigen Lösungen auf der Basis des Hadoop-Frameworks. In diesem Abschnitt lernen Sie den aktuellen Entwicklungsstand verschiedener Lösungen kennen. Es werden verschiedene Lösungsansätze demonstriert.
Konnektivität zu externen Datenquellen
Daten dieser Welt vereinigt Euch. Egal, ob relational oder nicht-relational, mit sqoop steht ein geeignetes Werkzeug zur Verfügung, um Daten zu importieren oder zu exportieren. Zudem stehen geeignete Konnektoren (ODBC, JDBC) für den "schnellen" Datenzugriff zur Verfügung. Es werden verschiedene Lösungsszenarien demonstriert.