DP-601 Implementing a Lakehouse with Microsoft Fabric (DP-601T00)

Classroom Schulung | Deutsch | Anspruch

Schulungsdauer: 1 Tag

Ziele

In der 1-tägigen Schulung "DP-601 Implementing a Lakehouse with Microsoft Fabric" erhalten Sie eine fundierte Einführung in die faszinierende Welt des Data Engineering, wobei der Schwerpunkt besonders auf dem Konzept des Lakehouses liegt. Der Kurs erstreckt sich über einen Tag und bietet eine intensive Lernerfahrung, um Ihre Fähigkeiten in diesem Bereich zu vertiefen.

Während des Trainings haben Sie die Gelegenheit, die beeindruckenden Möglichkeiten von Apache Spark zu erkunden und zu verstehen, wie es für die verteilte Verarbeitung von Daten eingesetzt wird. Praxisnahe Übungen ermöglichen es Ihnen, effizientes Datenmanagement durchzuführen, Daten zu versionieren und die Zuverlässigkeit durch die Arbeit mit Delta Lake-Tabellen zu verbessern. Zusätzlich werden Ihnen die bedeutenden Konzepte der Dateninjektion und -orchestrierung vermittelt, inklusive der Anwendung von Dataflows Gen2 und Data Factory Pipelines in Ihrer Arbeit.

Zielgruppe

  • Data Analyst
  • Data Engineer
  • Data Scientist

Voraussetzungen

Für eine optimale Teilnahme am Kurs empfehlen wir folgende Vorkenntnisse:

  • Vertrautheit mit grundlegenden Datenkonzepten und -begriffen

Agenda

Einführung in die End-to-End-Analyse mit Microsoft Fabric

  • Überblick End-to-End-Analyse mit Microsoft Fabric
  • Daten-Teams und Microsoft Fabric
  • Aktivieren und Verwenden von Microsoft Fabric

Einstieg in Lakehouses in Microsoft Fabric

  • Überblick Microsoft Fabric Lakehouse
  • Arbeiten mit Microsoft Fabric Lakehouses

Verwenden von Apache Spark in Microsoft Fabric

  • Vorbereitung zur Verwendung von Apache Spark
  • Ausführen von Spark-Code
  • Arbeiten mit Daten in einem Spark DataFrame
  • Arbeiten mit Daten unter Verwendung von Spark SQL
  • Daten in einem Spark Notebook visualisieren

Arbeiten mit Delta Lake-Tabellen in Microsoft Fabric

  • Verständnis von Delta Lake
  • Erstellen von Delta-Tabellen
  • Arbeiten mit Delta-Tabellen in Spark
  • Verwendung von Delta-Tabellen mit Streaming-Daten

Daten erfassen mit Dataflows Gen2 in Microsoft Fabric

  • Verständnis von Dataflows (Gen2)
  • Erforschen von Dataflows (Gen2)
  • Integration von Dataflows (Gen2) und Pipelines

Verwenden von Data Factory-Pipelines in Microsoft Fabric

  • Verständnis von Pipelines
  • Verwendung der "Copy Data"-Aktivität
  • Verwendung von Pipeline-Vorlagen
  • Ausführen und Überwachen von Pipelines

Ziele

In der 1-tägigen Schulung "DP-601 Implementing a Lakehouse with Microsoft Fabric" erhalten Sie eine fundierte Einführung in die faszinierende Welt des Data Engineering, wobei der Schwerpunkt besonders auf dem Konzept des Lakehouses liegt. Der Kurs erstreckt sich über einen Tag und bietet eine intensive Lernerfahrung, um Ihre Fähigkeiten in diesem Bereich zu vertiefen.

Während des Trainings haben Sie die Gelegenheit, die beeindruckenden Möglichkeiten von Apache Spark zu erkunden und zu verstehen, wie es für die verteilte Verarbeitung von Daten eingesetzt wird. Praxisnahe Übungen ermöglichen es Ihnen, effizientes Datenmanagement durchzuführen, Daten zu versionieren und die Zuverlässigkeit durch die Arbeit mit Delta Lake-Tabellen zu verbessern. Zusätzlich werden Ihnen die bedeutenden Konzepte der Dateninjektion und -orchestrierung vermittelt, inklusive der Anwendung von Dataflows Gen2 und Data Factory Pipelines in Ihrer Arbeit.

Zielgruppe

  • Data Analyst
  • Data Engineer
  • Data Scientist

Voraussetzungen

Für eine optimale Teilnahme am Kurs empfehlen wir folgende Vorkenntnisse:

  • Vertrautheit mit grundlegenden Datenkonzepten und -begriffen

Agenda

Einführung in die End-to-End-Analyse mit Microsoft Fabric

  • Überblick End-to-End-Analyse mit Microsoft Fabric
  • Daten-Teams und Microsoft Fabric
  • Aktivieren und Verwenden von Microsoft Fabric

Einstieg in Lakehouses in Microsoft Fabric

  • Überblick Microsoft Fabric Lakehouse
  • Arbeiten mit Microsoft Fabric Lakehouses

Verwenden von Apache Spark in Microsoft Fabric

  • Vorbereitung zur Verwendung von Apache Spark
  • Ausführen von Spark-Code
  • Arbeiten mit Daten in einem Spark DataFrame
  • Arbeiten mit Daten unter Verwendung von Spark SQL
  • Daten in einem Spark Notebook visualisieren

Arbeiten mit Delta Lake-Tabellen in Microsoft Fabric

  • Verständnis von Delta Lake
  • Erstellen von Delta-Tabellen
  • Arbeiten mit Delta-Tabellen in Spark
  • Verwendung von Delta-Tabellen mit Streaming-Daten

Daten erfassen mit Dataflows Gen2 in Microsoft Fabric

  • Verständnis von Dataflows (Gen2)
  • Erforschen von Dataflows (Gen2)
  • Integration von Dataflows (Gen2) und Pipelines

Verwenden von Data Factory-Pipelines in Microsoft Fabric

  • Verständnis von Pipelines
  • Verwendung der "Copy Data"-Aktivität
  • Verwendung von Pipeline-Vorlagen
  • Ausführen und Überwachen von Pipelines

Tags

Diese Seite weiterempfehlen