DP-601 Implementing a Lakehouse with Microsoft Fabric (DP-601T00)
Classroom Schulung | Deutsch | Anspruch
Schulungsdauer: 1 Tag
Ziele
In der 1-tägigen Schulung "DP-601 Implementing a Lakehouse with Microsoft Fabric" erhalten Sie eine fundierte Einführung in die faszinierende Welt des Data Engineering, wobei der Schwerpunkt besonders auf dem Konzept des Lakehouses liegt. Der Kurs erstreckt sich über einen Tag und bietet eine intensive Lernerfahrung, um Ihre Fähigkeiten in diesem Bereich zu vertiefen.
Während des Trainings haben Sie die Gelegenheit, die beeindruckenden Möglichkeiten von Apache Spark zu erkunden und zu verstehen, wie es für die verteilte Verarbeitung von Daten eingesetzt wird. Praxisnahe Übungen ermöglichen es Ihnen, effizientes Datenmanagement durchzuführen, Daten zu versionieren und die Zuverlässigkeit durch die Arbeit mit Delta Lake-Tabellen zu verbessern. Zusätzlich werden Ihnen die bedeutenden Konzepte der Dateninjektion und -orchestrierung vermittelt, inklusive der Anwendung von Dataflows Gen2 und Data Factory Pipelines in Ihrer Arbeit.
Zielgruppe
- Data Analyst
- Data Engineer
- Data Scientist
Voraussetzungen
Für eine optimale Teilnahme am Kurs empfehlen wir folgende Vorkenntnisse:
- Vertrautheit mit grundlegenden Datenkonzepten und -begriffen
Agenda
Einführung in die End-to-End-Analyse mit Microsoft Fabric
- Überblick End-to-End-Analyse mit Microsoft Fabric
- Daten-Teams und Microsoft Fabric
- Aktivieren und Verwenden von Microsoft Fabric
Einstieg in Lakehouses in Microsoft Fabric
- Überblick Microsoft Fabric Lakehouse
- Arbeiten mit Microsoft Fabric Lakehouses
Verwenden von Apache Spark in Microsoft Fabric
- Vorbereitung zur Verwendung von Apache Spark
- Ausführen von Spark-Code
- Arbeiten mit Daten in einem Spark DataFrame
- Arbeiten mit Daten unter Verwendung von Spark SQL
- Daten in einem Spark Notebook visualisieren
Arbeiten mit Delta Lake-Tabellen in Microsoft Fabric
- Verständnis von Delta Lake
- Erstellen von Delta-Tabellen
- Arbeiten mit Delta-Tabellen in Spark
- Verwendung von Delta-Tabellen mit Streaming-Daten
Daten erfassen mit Dataflows Gen2 in Microsoft Fabric
- Verständnis von Dataflows (Gen2)
- Erforschen von Dataflows (Gen2)
- Integration von Dataflows (Gen2) und Pipelines
Verwenden von Data Factory-Pipelines in Microsoft Fabric
- Verständnis von Pipelines
- Verwendung der "Copy Data"-Aktivität
- Verwendung von Pipeline-Vorlagen
- Ausführen und Überwachen von Pipelines
Ziele
In der 1-tägigen Schulung "DP-601 Implementing a Lakehouse with Microsoft Fabric" erhalten Sie eine fundierte Einführung in die faszinierende Welt des Data Engineering, wobei der Schwerpunkt besonders auf dem Konzept des Lakehouses liegt. Der Kurs erstreckt sich über einen Tag und bietet eine intensive Lernerfahrung, um Ihre Fähigkeiten in diesem Bereich zu vertiefen.
Während des Trainings haben Sie die Gelegenheit, die beeindruckenden Möglichkeiten von Apache Spark zu erkunden und zu verstehen, wie es für die verteilte Verarbeitung von Daten eingesetzt wird. Praxisnahe Übungen ermöglichen es Ihnen, effizientes Datenmanagement durchzuführen, Daten zu versionieren und die Zuverlässigkeit durch die Arbeit mit Delta Lake-Tabellen zu verbessern. Zusätzlich werden Ihnen die bedeutenden Konzepte der Dateninjektion und -orchestrierung vermittelt, inklusive der Anwendung von Dataflows Gen2 und Data Factory Pipelines in Ihrer Arbeit.
Zielgruppe
- Data Analyst
- Data Engineer
- Data Scientist
Voraussetzungen
Für eine optimale Teilnahme am Kurs empfehlen wir folgende Vorkenntnisse:
- Vertrautheit mit grundlegenden Datenkonzepten und -begriffen
Agenda
Einführung in die End-to-End-Analyse mit Microsoft Fabric
- Überblick End-to-End-Analyse mit Microsoft Fabric
- Daten-Teams und Microsoft Fabric
- Aktivieren und Verwenden von Microsoft Fabric
Einstieg in Lakehouses in Microsoft Fabric
- Überblick Microsoft Fabric Lakehouse
- Arbeiten mit Microsoft Fabric Lakehouses
Verwenden von Apache Spark in Microsoft Fabric
- Vorbereitung zur Verwendung von Apache Spark
- Ausführen von Spark-Code
- Arbeiten mit Daten in einem Spark DataFrame
- Arbeiten mit Daten unter Verwendung von Spark SQL
- Daten in einem Spark Notebook visualisieren
Arbeiten mit Delta Lake-Tabellen in Microsoft Fabric
- Verständnis von Delta Lake
- Erstellen von Delta-Tabellen
- Arbeiten mit Delta-Tabellen in Spark
- Verwendung von Delta-Tabellen mit Streaming-Daten
Daten erfassen mit Dataflows Gen2 in Microsoft Fabric
- Verständnis von Dataflows (Gen2)
- Erforschen von Dataflows (Gen2)
- Integration von Dataflows (Gen2) und Pipelines
Verwenden von Data Factory-Pipelines in Microsoft Fabric
- Verständnis von Pipelines
- Verwendung der "Copy Data"-Aktivität
- Verwendung von Pipeline-Vorlagen
- Ausführen und Überwachen von Pipelines