CompTIA Data+

Classroom Schulung | Deutsch | Anspruch

Schulungsdauer: 4 Tage

Ziele

Dieses Seminar CompTIA Data+ bereitet die Teilnehmer auf die Zertifizierung zum CompTIA Data+ (DA0-001) vor. Sie lernen in diesem Kurs wie Sie Geschäftsanforderungen zur Unterstützung datengesteuerter Entscheidungen umwandeln, und zwar durch:

  • Daten auswerten
  • Manipulation von Daten
  • Anwenden grundlegender statistischer Methoden
  • Analyse komplexer Datensätze unter Einhaltung von Governance- und Qualitätsstandards während des gesamten Datenlebenszyklus

Zielgruppe

  • Data-Analysten

Voraussetzungen

  • 18–24 Monate Erfahrung in einer Position als Berichterstatter/Geschäftsanalyst
  • Umgang mit Datenbanken und Analysetools
  • ein grundlegendes Verständnis von Statistik und
  • Erfahrung in der Datenvisualisierung

Agenda

1.0 Datenkonzepte und -umgebungen

Erkennen der Grundlagen von Datenschemata und Dimensionen

  • Datenbanken
  • Data Mart/Data Warehousing/Data Lake
  • Schema-Konzepte
  • Langsam wechselnde Dimensionen

Vergleich und Gegenüberstellung verschiedener Datentypen

  • Date
  • Numeric
  • Alphanumeric
  • Currency
  • Text
  • Diskret vs. continuous
  • Kategorisch/Dimension
  • Images
  • Audio
  • Video

Vergleich und Gegenüberstellung gängiger Datenstrukturen und Dateiformate

  • Strukturen
  • Dateiformate für Daten

2.0 Data Mining

Konzepte der Datenerfassung

  • Integration
  • Methoden der Datenerfassung

Identifizieren von Gründen für die Bereinigung und Profilierung von Datensätzen

  • Doppelte Daten
  • Redundante Daten
  • Fehlende Werte
  • Ungültige Daten
  • Nicht-parametrische Daten
  • Datenausreißer
  • Unstimmigkeiten in der Spezifikation
  • Validierung des Datentyps

Ausführen von Datenmanipulationstechniken

  • Umkodierung von Daten
  • Abgeleitete Variablen
  • Zusammenführen von Daten
  • Datenvermischung
  • Verkettung
  • Daten anhängen
  • Imputation
  • Reduktion/Aggregation
  • Transponieren
  • Daten normalisieren
  • Parsing/string manipulation

Techniken zur Datenmanipulation und Abfrageoptimierung

  • Datenmanipulation
  • Abfrageoptimierung

3.0 Datenanalyse

Anwendung der geeigneten deskriptiven statistischen Methoden

  • Maße der zentralen Tendenz
  • Maße für die Streuung
  • Häufigkeiten/Prozentsätze
  • Prozentuale Veränderung
  • Prozentuale Differenz
  • Konfidenzintervalle

Zweck der inferenzstatistischen Methoden

  • t-Tests
  • Z-Score
  • p-Werte
  • Chi-squared
  • Hypothesentests
  • Einfache lineare Regression
  • Korrelation

Arten von Analysen und wichtige Analysetechniken

  • Verfahren zur Bestimmung der Analyseart
  • Art der Analyse

Identifizierung gängiger Datenanalysetools

  • SQL
  • Python
  • Microsoft Excel
  • R
  • Schnelles Mining
  • IBM Kognos
  • IBM SPSS Modeler
  • IBM SPSS
  • SAS
  • Tableau
  • Power BI
  • Qlik
  • MicroStrategy
  • BusinessObjects
  • Apex
  • Dataroma
  • Domo
  • AWS QuickSight
  • Stata
  • Minitab

4.0 Visualisierung

Geschäftsanforderungen in einen Bericht umsetzen

  • Inhalt der Daten
  • Filtern
  • Views
  • Date Range
  • Häufigkeit
  • Zielgruppe

Gestaltung von Inhalten für Reports und Dashboards

  • Deckblatt des Reports
  • Design Elemente
  • Elemente der Dokumentation

Methoden für die Entwicklung von Dashboards

  • Überlegungen zum Dashboard
  • Entwicklungsprozess
  • Überlegungen zur Bereitstellung

Art der Visualisierung

  • Liniendiagramm
  • Kreisdiagramm
  • Blasendiagramm
  • Punktediagramm
  • Balkendiagramm
  • Histogramm
  • Wasserfall
  • Heatmap
  • Geografische Darstellung
  • Tree Map
  • Stacked chart
  • Infografik
  • Word cloud

Vergleich und Gegenüberstellung von Berichtstypen

  • Statische vs. dynamische Berichte
  • Ad-hoc-/one-time-Bericht
  • Self-service/on demand
  • Wiederholende Reports
  • Tactical/research Report

5.0 Datenverwaltung, -qualität und -kontrollen

Konzepte der Datenverwaltung

  • Zugriffsanforderungen
  • Anforderungen an die Sicherheit
  • Anforderungen an die Speicherumgebung
  • Anforderungen an die Nutzung
  • Anforderungen an Entitätsbeziehungen
  • Klassifizierung der Daten
  • Anforderungen an die Rechtsprechung
  • Meldung von Datenverletzungen

Konzepte zur Datenqualitätskontrolle anwenden

  • Umstände zur Überprüfung der Qualität
  • Automatisierte Validierung
  • Dimensionen der Datenqualität
  • Datenqualitätsregeln und -metriken
  • Methoden zur Validierung der Qualität

Konzepte der Stammdatenverwaltung (MDM)

  • Abläufe
  • Bedingungen für MDM

Ziele

Dieses Seminar CompTIA Data+ bereitet die Teilnehmer auf die Zertifizierung zum CompTIA Data+ (DA0-001) vor. Sie lernen in diesem Kurs wie Sie Geschäftsanforderungen zur Unterstützung datengesteuerter Entscheidungen umwandeln, und zwar durch:

  • Daten auswerten
  • Manipulation von Daten
  • Anwenden grundlegender statistischer Methoden
  • Analyse komplexer Datensätze unter Einhaltung von Governance- und Qualitätsstandards während des gesamten Datenlebenszyklus

Zielgruppe

  • Data-Analysten

Voraussetzungen

  • 18–24 Monate Erfahrung in einer Position als Berichterstatter/Geschäftsanalyst
  • Umgang mit Datenbanken und Analysetools
  • ein grundlegendes Verständnis von Statistik und
  • Erfahrung in der Datenvisualisierung

Agenda

1.0 Datenkonzepte und -umgebungen

Erkennen der Grundlagen von Datenschemata und Dimensionen

  • Datenbanken
  • Data Mart/Data Warehousing/Data Lake
  • Schema-Konzepte
  • Langsam wechselnde Dimensionen

Vergleich und Gegenüberstellung verschiedener Datentypen

  • Date
  • Numeric
  • Alphanumeric
  • Currency
  • Text
  • Diskret vs. continuous
  • Kategorisch/Dimension
  • Images
  • Audio
  • Video

Vergleich und Gegenüberstellung gängiger Datenstrukturen und Dateiformate

  • Strukturen
  • Dateiformate für Daten

2.0 Data Mining

Konzepte der Datenerfassung

  • Integration
  • Methoden der Datenerfassung

Identifizieren von Gründen für die Bereinigung und Profilierung von Datensätzen

  • Doppelte Daten
  • Redundante Daten
  • Fehlende Werte
  • Ungültige Daten
  • Nicht-parametrische Daten
  • Datenausreißer
  • Unstimmigkeiten in der Spezifikation
  • Validierung des Datentyps

Ausführen von Datenmanipulationstechniken

  • Umkodierung von Daten
  • Abgeleitete Variablen
  • Zusammenführen von Daten
  • Datenvermischung
  • Verkettung
  • Daten anhängen
  • Imputation
  • Reduktion/Aggregation
  • Transponieren
  • Daten normalisieren
  • Parsing/string manipulation

Techniken zur Datenmanipulation und Abfrageoptimierung

  • Datenmanipulation
  • Abfrageoptimierung

3.0 Datenanalyse

Anwendung der geeigneten deskriptiven statistischen Methoden

  • Maße der zentralen Tendenz
  • Maße für die Streuung
  • Häufigkeiten/Prozentsätze
  • Prozentuale Veränderung
  • Prozentuale Differenz
  • Konfidenzintervalle

Zweck der inferenzstatistischen Methoden

  • t-Tests
  • Z-Score
  • p-Werte
  • Chi-squared
  • Hypothesentests
  • Einfache lineare Regression
  • Korrelation

Arten von Analysen und wichtige Analysetechniken

  • Verfahren zur Bestimmung der Analyseart
  • Art der Analyse

Identifizierung gängiger Datenanalysetools

  • SQL
  • Python
  • Microsoft Excel
  • R
  • Schnelles Mining
  • IBM Kognos
  • IBM SPSS Modeler
  • IBM SPSS
  • SAS
  • Tableau
  • Power BI
  • Qlik
  • MicroStrategy
  • BusinessObjects
  • Apex
  • Dataroma
  • Domo
  • AWS QuickSight
  • Stata
  • Minitab

4.0 Visualisierung

Geschäftsanforderungen in einen Bericht umsetzen

  • Inhalt der Daten
  • Filtern
  • Views
  • Date Range
  • Häufigkeit
  • Zielgruppe

Gestaltung von Inhalten für Reports und Dashboards

  • Deckblatt des Reports
  • Design Elemente
  • Elemente der Dokumentation

Methoden für die Entwicklung von Dashboards

  • Überlegungen zum Dashboard
  • Entwicklungsprozess
  • Überlegungen zur Bereitstellung

Art der Visualisierung

  • Liniendiagramm
  • Kreisdiagramm
  • Blasendiagramm
  • Punktediagramm
  • Balkendiagramm
  • Histogramm
  • Wasserfall
  • Heatmap
  • Geografische Darstellung
  • Tree Map
  • Stacked chart
  • Infografik
  • Word cloud

Vergleich und Gegenüberstellung von Berichtstypen

  • Statische vs. dynamische Berichte
  • Ad-hoc-/one-time-Bericht
  • Self-service/on demand
  • Wiederholende Reports
  • Tactical/research Report

5.0 Datenverwaltung, -qualität und -kontrollen

Konzepte der Datenverwaltung

  • Zugriffsanforderungen
  • Anforderungen an die Sicherheit
  • Anforderungen an die Speicherumgebung
  • Anforderungen an die Nutzung
  • Anforderungen an Entitätsbeziehungen
  • Klassifizierung der Daten
  • Anforderungen an die Rechtsprechung
  • Meldung von Datenverletzungen

Konzepte zur Datenqualitätskontrolle anwenden

  • Umstände zur Überprüfung der Qualität
  • Automatisierte Validierung
  • Dimensionen der Datenqualität
  • Datenqualitätsregeln und -metriken
  • Methoden zur Validierung der Qualität

Konzepte der Stammdatenverwaltung (MDM)

  • Abläufe
  • Bedingungen für MDM

Diese Seite weiterempfehlen