Data Scienctist - Tools

Classroom Schulung | deutsch | Anspruch

Schulungsdauer: 10 Tage

Ziele

Data Science ist eines der aktuellen Schlagworte der IT-Branche. Wissenschaft braucht Wissenschaftler und so ist das Tätigkeitsprofil Data Scientist mehr denn je gefragt.

Nicht alles, was das Profil eines Data Scientist ausmacht, ist neu, aber manches ist anders. Deshalb macht es Sinn, an der vertrauten "klassischen" Position der Datenhaltung und ihrer Auswertung anzusetzen und Schritt für Schritt die neuen Möglichkeiten und Anforderungen kennen zu lernen und anhand praktischer Aufgabenstellungen intensiv zu üben.

Dieser Spezialisierungskurs wendet sich an alle Auf- und Umsteiger, die in der Vergangenheit Erfahrungen mit der Anwendung von Business Intelligence gesammelt haben. Er stellt eine schlüssige Ergänzung zum Kurs "Data Scientist Methoden Vertiefung" dar, indem die dort diskutierten Herangehensweisen mit praktischen Tools umgesetzt werden.

Der Kurs wird mit einem Test, der auch die Lösung einer Praxisaufgabe beinhaltet, abgeschlossen. Nach erfolgreicher Absolvierung dieses Tests wird ein offizielles Zertifikat über die erfolgreiche Teilnahme vom "Big Data Lab e.V." ausgereicht.

Weitere Seminarinfos:

  • Schwierigkeitsgrad: 400
  • Darreichung: PowerPoint-Präsentation, Live-Demos sowie eigenständige Übungen (Labs) der Teilnehmer.
  • Der dargebotene Inhalt unterscheidet sich geringfügig je nach Wahl der Hadoop-Distribution (Cloudera oder Hortonworks), da nicht alle Komponenten in beiden Distributionen verfügbar sind.
  • Die Teilnehmer haben die Möglichkeit, einen Test zu absolvieren, der aus der Beantwortung von Fragen (multiple Choice) sowie der Lösung einer praktischen Aufgabenstellung besteht. Nach erfolgreichem Abschluss des Tests wird ein offizielles Zertifikat über die erfolgreiche Teilnahme am Seminar "Data Scientist Tools Spezialisierung" vom "Big Data Lab e.V." ausgereicht.
  • Voraussetzung für die Teilnahme am Abschlusstests ist eine Mindestzahl von Credits des Teilnehmers. Dies können im Spezialisierungskurs oder in anderen Seminar-Veranstaltungen und Kursen aus dem Programm von IT-Schulungen erworben werden.
  • Materialien: Präsentation in elektronischer Form (Format .PDF). Übungsunterlagen in gedruckter und elektronischer Form.
  • Die für die Übungen erforderliche IT-Infrastruktur wird in virtualisierter Form bereitgestellt.
  • Der Anteil eigenständiger Übungen beträgt etwa 45 %.
  • Credits: Ja (Credits für die Zertifizierung)

Zielgruppe

(IT-)Entwickler, (Fach-)Anwender

Voraussetzungen

Praktische Erfahrungen im Umgang mit Business Intelligence sowie Grundkenntnisse in einer beliebigen Programmiersprache (bevorzugt R oder Python).

Folgende Seminare und Kurse zur Auffrischung der Kenntnisse um Big Data können hilfreich sein:

1) Einstiegs-Seminare (Schwierigkeitsgrad 100)

a. Big Data Einstieg

b. Big Data – Technologien, Strategien und Trends

c. Data Scientist Einstieg

2) Überblicks-Seminare (Schwierigkeitsgrad 200)

a. Big Data Architekturen Überblick

b. Hadoop Datentechnologien Überblick

c. NoSQL Überblick

3) Vertiefungs-Kurse (Schwierigkeitsgrad 300)

a. Hadoop und R Vertiefung

b. Hadoop und Python Vertiefung

Agenda

Modul 1: Einführung. Was ist Data Science und worin besteht das Profil eines Data Scientist?

Data Science ist als Begrifflichkeit älter als mancher vermutet und wird etwa seit Mitte der 90er Jahre inhaltlich in der Form interpretiert, wie er heute allgemein verwendet wird: Der Ableitung von neuem Wissen aus Daten. Allerdings wurde er in den letzten fünf Jahren in Zusammenhang mit der Zunahme der Bedeutung von Daten stark aufgewertet. In diesem Abschnitt wird auf verschiedene aktuelle Interpretationen und Abgrenzungen eingegangen und Fragen wie beispielsweise: "Was ist ein Data Scientist?" und "Welche Anforderungen sind an einen Data Scientist zu stellen?" beantwortet.

Credits für Modul 1: 0

Alternative Veranstaltungen: Seminar Data Scienctist Einstieg

Modul 2: Moderne Informations-Architekturen im Zeitalter von Big Data.

Die moderne Verarbeitung von Informationen muss nicht nur große Datenmengen handhaben können, sondern unter Umständen auch in der Lage sein, zeitnah Ergebnisse bereit zu stellen. Dies ist mit dem klassischen Architekturansatz nicht lösbar und so sind verschiedene Lösungsansätze entstanden, die alle auf einer verteilten Speicherung und Verarbeitung der Daten beruhen und den unterschiedlichsten Anforderungen gerecht werden.

In diesem Modul lernen die Teilnehmer auf Hadoop basierende Architekturen kennen, die entweder für die Stapelverarbeitung oder die Verarbeitung nahe Echtzeit eingesetzt werden können sowie eine Kombination aus beiden Anforderungen.

Die Teilnehmer aktivieren in einer praktischen Übung ihre individuelle Arbeitsumgebung auf der Grundlage eines virtualisierten Hadoop-Clusters.

Credits für Modul 2: 5

Alternative Veranstaltungen:

Seminar Big Data Einstieg (3 Credits)

Seminar Big Data Architekturen Überblick (5 Credits).

Modul 3: Die Speicherung von Daten im Zeitalter von Big Data.

Die traditionelle Speicherung von Daten in "strukturierter" Form auf einem zentralen Server hat enorm an Bedeutung verloren. Heute speichert man die Daten verteilt und zumeist nur gering strukturiert, immer öfters aber auch in der Cloud.

In diesem Abschnitt lernen die Teilnehmer das verteilte Dateisystem HDFS lernen sowie verschiedene Möglichkeiten der Datenhaltung in NoSQL-Datenbanken.

Die gewonnenen Erkenntnisse werden in praktischen Übungen (Labs) vertieft.

Credits für Modul 3: 10

Alternative Veranstaltungen:

Seminar Hortonworks Einstieg (3 Credits) oder Cloudera Einstieg (3 Credits).

Seminar Big Data im Rechenzentrum Überblick (2 Credits).

Seminar Big Data in der Cloud Überblick (2 Credits).

Kurs HDFS Vertiefung (5 Credits).

Seminar NoSQL Überblick (5 Credits).

Hadoop Datentechnologien Überblick (5 Credits).

Modul 4: Die Aufbereitung von Daten im Zeitalter von Big Data.

Je nach gewählter Architektur stehen sowohl für die Stapelverarbeitung als auch für die permanente Aufbereitung von Daten unterschiedliche Konzepte und Komponenten zur Verfügung. Für die Stapelverarbeitung kommt immer noch recht häufig MapReduce zum Einsatz, welches entweder direkt oder in Form von darauf aufsetzenden Werkzeugen (wie beispielsweise Pig) genutzt wird. Für die permanente Aufbereitung von Daten wird in der Regel ein Queue-basierter Ansatz auf der Basis von Kafka verfolgt.

Darüber hinaus stehen vollständige IDEs (Integrated Development Environments) für die Aufbereitung von Daten für Big Data zur Verfügung. Neben den traditionellen ETL-Anbietern wie beispielsweise Talend oder Pentaho, die ihre Angebote entsprechend erweitert haben, sind es vor allem neue Konzepte, wie sie zum Beispiel mit der Open Source-Lösung NiFi umgesetzt werden.

Die Teilnehmer machen sich mit den aufgeführten Komponenten vertraut, die ausführlich demonstriert werden. Entsprechend der Orientierung der Lab-Plattform lösen die Teilnehmer zahlreiche praktische Aufgabenstellungen

Credits für Modul 4: 15

Alternative Veranstaltungen:

Seminar Hadoop Datentechnologien Überblick (5 Credits).

Kurs Hortonworks HDF Vertiefung (5 Credits).

Kurs Apache Kafka Vertiefung (5 Credits).

Modul 5: Die Evaluierung von Daten im Zeitalter von Big Data.

Für die Evaluierung von Daten im Kontext von Big Data stehen eine Vielzahl von Möglichkeiten je nach Datengrundlage und favorisierter Anwendung zur Verfügung. Die vertrauteste Form bietet immer noch die SQL-basierte Evaluierung, die unter der Voraussetzung von definierten Datenstrukturen mit Werkzeugen wie Hive, Kudu, Phoenix oder Impala möglich ist. Darüber hinaus steht mit Spark SQL eine mächtige Engine zur Verfügung, mit der in einer interaktiven Konsolenanwendung SQL-Abfragen ausgeführt werden können.

Die Teilnehmer machen sich mit den aufgeführten Komponenten vertraut, die ausführlich demonstriert werden. Zusätzlich werden Alternativen im Überblick vorgestellt, die auf einem nicht SQL-basierten Ansatz beruhen.

Entsprechend der Orientierung der Lab-Plattform lösen die Teilnehmer praktische Aufgabenstellungen neben Hive und Spark SQL mit der Komponente Phoenix (Hortonworks) oder mit Kudu und Impala (Cloudera).

Credits für Modul 5: 20

Alternative Veranstaltungen:

Kurs Apache HBase Vertiefung (5 Credits).

Kurs Apache Hive Vertiefung (5 Credits).

Kurs Apache Impala Vertiefung (5 Credits).

Kurs Apache Spark SQL Vertiefung (10 Credits).

Kurs Apache Spark Vertiefung (10 Credits).

Modul 6: Datenanalysen und Vorhersagen im Zeitalter von Big Data.

Mit Spark steht eine universelle Engine für die Verarbeitung von Daten in einer verteilten Umgebung zur Verfügung. Mit MLLib verfügt die Komponente auch über spezielle Routinen, die für die Analyse und Vorhersage genutzt werden können.

Die Bibliothek MLlib verfügt über Standard-Algorithmen für Clustering, Regressions- und Klassifikations-Verfahren und andere wie auch über Hilfsmittel, um den Prozess der Informationsgewinnung geeignet zu unterstützen (Feature Transformation, Hyperparameter Tuning, Pipelines, …).

Die Teilnehmer machen sich mit den verwendeten Begrifflichkeiten und dem Konzept von und Ablauf in Spark MLlib. In aufeinander aufbauenden Schritten wird die Lösung verschiedener praktischer Aufgabenstellungen demonstriert.

Die gewonnenen Erkenntnisse werden in praktischen Übungen (Labs) vertieft.

Credits für Modul 6: 20

Alternative Veranstaltungen:

Kurs Apache Spark ML Vertiefung (20 Credits).

Kurs Apache Spark Vertiefung (20 Credits).

Modul 7: Programmierung im Zeitalter von Big Data.

Im Kontext von Big Data haben sich eine Vielzahl von Programmiersprachen etabliert, wovon im produktiven Umfeld die Sprache Java und in bestimmten Umfang auch Scala dominieren. Für den Data Scientist sind dagegen eher interaktive Konsolenanwendungen von Interesse sowie insbesondere die Sprachen Python und "R".

Da der Zugriff von der Konsole bereits in den Modulen 5 und 6 thematisiert wurde, wird in diesem Modul der Schwerpunkt auf die Sprachen Python und R gelegt.

Die Teilnehmer machen sich mit den Basis-Konstrukten von Python und R vertraut und lernen Notebook-Anwendungen wie beispielsweise Jupyter, Zeppelin oder die Cloudera Data Science Workbench kennen.

Entsprechend der Orientierung der Lab-Plattform lösen die Teilnehmer praktische Aufgabenstellungen mit dem Notebook Zeppelin (Hortonworks) oder der Cloudera Data Science Workbench (Cloudera).

Credits für Modul 7: 20

Alternative Veranstaltungen:

Kurs Hadoop und Python Vertiefung (10 Credits).

Kurs Hadoop und R Vertiefung (10 Credits).

Modul 8: Die Visualisierung von Daten im Zeitalter von Big Data.

Für die Visualisierung von Daten im Kontext von Big Data stehen je nach gewählter Plattform unterschiedliche Werkzeuge zur Verfügung. Grundsätzlich können mit der gewählten Anwendung wie beispielsweise Zeppelin oder Cloudera Data Science Workbench auch Daten visualisiert werden. Darüber hinaus stehen in Python und "R" leistungsfähige Bibliotheken für die Visualisierung zur Verfügung. Alternativ ist unter bestimmten Voraussetzungen auch der Einsatz klassischer BI Tools für die Visualisierung möglich, wie am Beispiel von Microsoft Power BI gezeigt wird.

Die Teilnehmer erhalten einen Überblick und machen sich mit den Möglichkeiten der Datenvisualisierung vertraut.

Entsprechend der Orientierung der Lab-Plattform lösen die Teilnehmer praktische Aufgabenstellungen mit dem Notebook Zeppelin (Hortonworks) oder der Cloudera Data Science Workbench (Cloudera).

Credits für Modul 8: 10

Alternative Veranstaltungen:

Kurs Hadoop und Python Vertiefung (5 Credits).

Kurs Hadoop und R Vertiefung (5 Credits).

Test "Data Scientist Tools Spezialisierung".

Voraussetzung für die Teilnahme am Test "Data Scienctist Tools Spezialisierung" sind 100 Credits, die in den Modulen 1 bis 8 oder gegebenenfalls in anderen Seminaren und Kursen gesammelt werden konnten.

Ziele

Data Science ist eines der aktuellen Schlagworte der IT-Branche. Wissenschaft braucht Wissenschaftler und so ist das Tätigkeitsprofil Data Scientist mehr denn je gefragt.

Nicht alles, was das Profil eines Data Scientist ausmacht, ist neu, aber manches ist anders. Deshalb macht es Sinn, an der vertrauten "klassischen" Position der Datenhaltung und ihrer Auswertung anzusetzen und Schritt für Schritt die neuen Möglichkeiten und Anforderungen kennen zu lernen und anhand praktischer Aufgabenstellungen intensiv zu üben.

Dieser Spezialisierungskurs wendet sich an alle Auf- und Umsteiger, die in der Vergangenheit Erfahrungen mit der Anwendung von Business Intelligence gesammelt haben. Er stellt eine schlüssige Ergänzung zum Kurs "Data Scientist Methoden Vertiefung" dar, indem die dort diskutierten Herangehensweisen mit praktischen Tools umgesetzt werden.

Der Kurs wird mit einem Test, der auch die Lösung einer Praxisaufgabe beinhaltet, abgeschlossen. Nach erfolgreicher Absolvierung dieses Tests wird ein offizielles Zertifikat über die erfolgreiche Teilnahme vom "Big Data Lab e.V." ausgereicht.

Weitere Seminarinfos:

  • Schwierigkeitsgrad: 400
  • Darreichung: PowerPoint-Präsentation, Live-Demos sowie eigenständige Übungen (Labs) der Teilnehmer.
  • Der dargebotene Inhalt unterscheidet sich geringfügig je nach Wahl der Hadoop-Distribution (Cloudera oder Hortonworks), da nicht alle Komponenten in beiden Distributionen verfügbar sind.
  • Die Teilnehmer haben die Möglichkeit, einen Test zu absolvieren, der aus der Beantwortung von Fragen (multiple Choice) sowie der Lösung einer praktischen Aufgabenstellung besteht. Nach erfolgreichem Abschluss des Tests wird ein offizielles Zertifikat über die erfolgreiche Teilnahme am Seminar "Data Scientist Tools Spezialisierung" vom "Big Data Lab e.V." ausgereicht.
  • Voraussetzung für die Teilnahme am Abschlusstests ist eine Mindestzahl von Credits des Teilnehmers. Dies können im Spezialisierungskurs oder in anderen Seminar-Veranstaltungen und Kursen aus dem Programm von IT-Schulungen erworben werden.
  • Materialien: Präsentation in elektronischer Form (Format .PDF). Übungsunterlagen in gedruckter und elektronischer Form.
  • Die für die Übungen erforderliche IT-Infrastruktur wird in virtualisierter Form bereitgestellt.
  • Der Anteil eigenständiger Übungen beträgt etwa 45 %.
  • Credits: Ja (Credits für die Zertifizierung)

Zielgruppe

(IT-)Entwickler, (Fach-)Anwender

Voraussetzungen

Praktische Erfahrungen im Umgang mit Business Intelligence sowie Grundkenntnisse in einer beliebigen Programmiersprache (bevorzugt R oder Python).

Folgende Seminare und Kurse zur Auffrischung der Kenntnisse um Big Data können hilfreich sein:

1) Einstiegs-Seminare (Schwierigkeitsgrad 100)

a. Big Data Einstieg

b. Big Data – Technologien, Strategien und Trends

c. Data Scientist Einstieg

2) Überblicks-Seminare (Schwierigkeitsgrad 200)

a. Big Data Architekturen Überblick

b. Hadoop Datentechnologien Überblick

c. NoSQL Überblick

3) Vertiefungs-Kurse (Schwierigkeitsgrad 300)

a. Hadoop und R Vertiefung

b. Hadoop und Python Vertiefung

Agenda

Modul 1: Einführung. Was ist Data Science und worin besteht das Profil eines Data Scientist?

Data Science ist als Begrifflichkeit älter als mancher vermutet und wird etwa seit Mitte der 90er Jahre inhaltlich in der Form interpretiert, wie er heute allgemein verwendet wird: Der Ableitung von neuem Wissen aus Daten. Allerdings wurde er in den letzten fünf Jahren in Zusammenhang mit der Zunahme der Bedeutung von Daten stark aufgewertet. In diesem Abschnitt wird auf verschiedene aktuelle Interpretationen und Abgrenzungen eingegangen und Fragen wie beispielsweise: "Was ist ein Data Scientist?" und "Welche Anforderungen sind an einen Data Scientist zu stellen?" beantwortet.

Credits für Modul 1: 0

Alternative Veranstaltungen: Seminar Data Scienctist Einstieg

Modul 2: Moderne Informations-Architekturen im Zeitalter von Big Data.

Die moderne Verarbeitung von Informationen muss nicht nur große Datenmengen handhaben können, sondern unter Umständen auch in der Lage sein, zeitnah Ergebnisse bereit zu stellen. Dies ist mit dem klassischen Architekturansatz nicht lösbar und so sind verschiedene Lösungsansätze entstanden, die alle auf einer verteilten Speicherung und Verarbeitung der Daten beruhen und den unterschiedlichsten Anforderungen gerecht werden.

In diesem Modul lernen die Teilnehmer auf Hadoop basierende Architekturen kennen, die entweder für die Stapelverarbeitung oder die Verarbeitung nahe Echtzeit eingesetzt werden können sowie eine Kombination aus beiden Anforderungen.

Die Teilnehmer aktivieren in einer praktischen Übung ihre individuelle Arbeitsumgebung auf der Grundlage eines virtualisierten Hadoop-Clusters.

Credits für Modul 2: 5

Alternative Veranstaltungen:

Seminar Big Data Einstieg (3 Credits)

Seminar Big Data Architekturen Überblick (5 Credits).

Modul 3: Die Speicherung von Daten im Zeitalter von Big Data.

Die traditionelle Speicherung von Daten in "strukturierter" Form auf einem zentralen Server hat enorm an Bedeutung verloren. Heute speichert man die Daten verteilt und zumeist nur gering strukturiert, immer öfters aber auch in der Cloud.

In diesem Abschnitt lernen die Teilnehmer das verteilte Dateisystem HDFS lernen sowie verschiedene Möglichkeiten der Datenhaltung in NoSQL-Datenbanken.

Die gewonnenen Erkenntnisse werden in praktischen Übungen (Labs) vertieft.

Credits für Modul 3: 10

Alternative Veranstaltungen:

Seminar Hortonworks Einstieg (3 Credits) oder Cloudera Einstieg (3 Credits).

Seminar Big Data im Rechenzentrum Überblick (2 Credits).

Seminar Big Data in der Cloud Überblick (2 Credits).

Kurs HDFS Vertiefung (5 Credits).

Seminar NoSQL Überblick (5 Credits).

Hadoop Datentechnologien Überblick (5 Credits).

Modul 4: Die Aufbereitung von Daten im Zeitalter von Big Data.

Je nach gewählter Architektur stehen sowohl für die Stapelverarbeitung als auch für die permanente Aufbereitung von Daten unterschiedliche Konzepte und Komponenten zur Verfügung. Für die Stapelverarbeitung kommt immer noch recht häufig MapReduce zum Einsatz, welches entweder direkt oder in Form von darauf aufsetzenden Werkzeugen (wie beispielsweise Pig) genutzt wird. Für die permanente Aufbereitung von Daten wird in der Regel ein Queue-basierter Ansatz auf der Basis von Kafka verfolgt.

Darüber hinaus stehen vollständige IDEs (Integrated Development Environments) für die Aufbereitung von Daten für Big Data zur Verfügung. Neben den traditionellen ETL-Anbietern wie beispielsweise Talend oder Pentaho, die ihre Angebote entsprechend erweitert haben, sind es vor allem neue Konzepte, wie sie zum Beispiel mit der Open Source-Lösung NiFi umgesetzt werden.

Die Teilnehmer machen sich mit den aufgeführten Komponenten vertraut, die ausführlich demonstriert werden. Entsprechend der Orientierung der Lab-Plattform lösen die Teilnehmer zahlreiche praktische Aufgabenstellungen

Credits für Modul 4: 15

Alternative Veranstaltungen:

Seminar Hadoop Datentechnologien Überblick (5 Credits).

Kurs Hortonworks HDF Vertiefung (5 Credits).

Kurs Apache Kafka Vertiefung (5 Credits).

Modul 5: Die Evaluierung von Daten im Zeitalter von Big Data.

Für die Evaluierung von Daten im Kontext von Big Data stehen eine Vielzahl von Möglichkeiten je nach Datengrundlage und favorisierter Anwendung zur Verfügung. Die vertrauteste Form bietet immer noch die SQL-basierte Evaluierung, die unter der Voraussetzung von definierten Datenstrukturen mit Werkzeugen wie Hive, Kudu, Phoenix oder Impala möglich ist. Darüber hinaus steht mit Spark SQL eine mächtige Engine zur Verfügung, mit der in einer interaktiven Konsolenanwendung SQL-Abfragen ausgeführt werden können.

Die Teilnehmer machen sich mit den aufgeführten Komponenten vertraut, die ausführlich demonstriert werden. Zusätzlich werden Alternativen im Überblick vorgestellt, die auf einem nicht SQL-basierten Ansatz beruhen.

Entsprechend der Orientierung der Lab-Plattform lösen die Teilnehmer praktische Aufgabenstellungen neben Hive und Spark SQL mit der Komponente Phoenix (Hortonworks) oder mit Kudu und Impala (Cloudera).

Credits für Modul 5: 20

Alternative Veranstaltungen:

Kurs Apache HBase Vertiefung (5 Credits).

Kurs Apache Hive Vertiefung (5 Credits).

Kurs Apache Impala Vertiefung (5 Credits).

Kurs Apache Spark SQL Vertiefung (10 Credits).

Kurs Apache Spark Vertiefung (10 Credits).

Modul 6: Datenanalysen und Vorhersagen im Zeitalter von Big Data.

Mit Spark steht eine universelle Engine für die Verarbeitung von Daten in einer verteilten Umgebung zur Verfügung. Mit MLLib verfügt die Komponente auch über spezielle Routinen, die für die Analyse und Vorhersage genutzt werden können.

Die Bibliothek MLlib verfügt über Standard-Algorithmen für Clustering, Regressions- und Klassifikations-Verfahren und andere wie auch über Hilfsmittel, um den Prozess der Informationsgewinnung geeignet zu unterstützen (Feature Transformation, Hyperparameter Tuning, Pipelines, …).

Die Teilnehmer machen sich mit den verwendeten Begrifflichkeiten und dem Konzept von und Ablauf in Spark MLlib. In aufeinander aufbauenden Schritten wird die Lösung verschiedener praktischer Aufgabenstellungen demonstriert.

Die gewonnenen Erkenntnisse werden in praktischen Übungen (Labs) vertieft.

Credits für Modul 6: 20

Alternative Veranstaltungen:

Kurs Apache Spark ML Vertiefung (20 Credits).

Kurs Apache Spark Vertiefung (20 Credits).

Modul 7: Programmierung im Zeitalter von Big Data.

Im Kontext von Big Data haben sich eine Vielzahl von Programmiersprachen etabliert, wovon im produktiven Umfeld die Sprache Java und in bestimmten Umfang auch Scala dominieren. Für den Data Scientist sind dagegen eher interaktive Konsolenanwendungen von Interesse sowie insbesondere die Sprachen Python und "R".

Da der Zugriff von der Konsole bereits in den Modulen 5 und 6 thematisiert wurde, wird in diesem Modul der Schwerpunkt auf die Sprachen Python und R gelegt.

Die Teilnehmer machen sich mit den Basis-Konstrukten von Python und R vertraut und lernen Notebook-Anwendungen wie beispielsweise Jupyter, Zeppelin oder die Cloudera Data Science Workbench kennen.

Entsprechend der Orientierung der Lab-Plattform lösen die Teilnehmer praktische Aufgabenstellungen mit dem Notebook Zeppelin (Hortonworks) oder der Cloudera Data Science Workbench (Cloudera).

Credits für Modul 7: 20

Alternative Veranstaltungen:

Kurs Hadoop und Python Vertiefung (10 Credits).

Kurs Hadoop und R Vertiefung (10 Credits).

Modul 8: Die Visualisierung von Daten im Zeitalter von Big Data.

Für die Visualisierung von Daten im Kontext von Big Data stehen je nach gewählter Plattform unterschiedliche Werkzeuge zur Verfügung. Grundsätzlich können mit der gewählten Anwendung wie beispielsweise Zeppelin oder Cloudera Data Science Workbench auch Daten visualisiert werden. Darüber hinaus stehen in Python und "R" leistungsfähige Bibliotheken für die Visualisierung zur Verfügung. Alternativ ist unter bestimmten Voraussetzungen auch der Einsatz klassischer BI Tools für die Visualisierung möglich, wie am Beispiel von Microsoft Power BI gezeigt wird.

Die Teilnehmer erhalten einen Überblick und machen sich mit den Möglichkeiten der Datenvisualisierung vertraut.

Entsprechend der Orientierung der Lab-Plattform lösen die Teilnehmer praktische Aufgabenstellungen mit dem Notebook Zeppelin (Hortonworks) oder der Cloudera Data Science Workbench (Cloudera).

Credits für Modul 8: 10

Alternative Veranstaltungen:

Kurs Hadoop und Python Vertiefung (5 Credits).

Kurs Hadoop und R Vertiefung (5 Credits).

Test "Data Scientist Tools Spezialisierung".

Voraussetzung für die Teilnahme am Test "Data Scienctist Tools Spezialisierung" sind 100 Credits, die in den Modulen 1 bis 8 oder gegebenenfalls in anderen Seminaren und Kursen gesammelt werden konnten.

Diese Seite weiterempfehlen