Dieses Professional Certificate soll Ihnen helfen, die Fähigkeiten und das Portfolio zu entwickeln, die Sie für eine Einstiegsposition im Bereich Business Intelligence (BI) oder Data Warehousing Engineering benötigen. In den Online-Kursen dieses Programms tauchen Sie in die gefragte Rolle eines Data Warehouse Engineers ein und erwerben die wesentlichen Fähigkeiten, die Sie benötigen, um mit einer Reihe von Tools und Datenbanken zu arbeiten, um Enterprise Data Warehouses (EDW) zu entwerfen, einzusetzen, zu betreiben und zu verwalten.
Am Ende dieses Professional Certificates werden Sie in der Lage sein, die wichtigsten Aufgaben eines Data Warehouse Engineers auszuführen. Sie werden mit relationalen Datenbankmanagementsystemen (RDBMS) arbeiten und Daten mit SQL-Anweisungen abfragen.
Sie werden Linux/UNIX-Shell-Skripte verwenden, um sich wiederholende Aufgaben zu automatisieren, und Datenpipelines mit Tools wie Apache Airflow und Kafka erstellen, um Daten zu extrahieren, zu transformieren und zu laden (ETL). Sie werden Erfahrungen mit der Verwaltung von Datenbanken und Data Warehouses sammeln.
Schließlich werden Sie Data-Warehouse-Systeme entwerfen und befüllen und Business-Intelligence-Tools einsetzen, um mit Hilfe von Berichten und Dashboards zu analysieren und Erkenntnisse zu gewinnen.
Dieses Programm ist für jeden geeignet, der gerne lernt, und zwar unabhängig davon, ob Sie einen Hochschulabschluss haben oder nicht. Sie brauchen keine Vorkenntnisse in Data Engineering oder Programmierung.
Praktisches Lernprojekt
Jeder Kurs umfasst zahlreiche praktische Übungen und ein Projekt, um die erlernten Konzepte und Fähigkeiten zu vertiefen und anzuwenden. Am Ende des Programms werden Sie zahlreiche Datenbanken entworfen, implementiert, konfiguriert, abgefragt und gewartet haben und Datenpipelines mit realen Tools und Datenbeständen erstellt haben, um ein Portfolio mit berufsrelevanten Fähigkeiten aufzubauen.
Sie beginnen mit der Bereitstellung einer Datenbankinstanz in der Cloud. Als nächstes entwerfen Sie Datenbanken mithilfe von Entity-Relationship-Diagrammen (ERD) und erstellen Datenbankobjekte wie Tabellen und Schlüssel mit MySQL, PostgreSQL und IBM Db2
Anschließend werden Sie mit der Abfrage von Datenbanken mit SQL unter Verwendung von SELECT-, INSERT-, UPDATE- und DELETE-Anweisungen vertraut gemacht und lernen, wie Sie Ergebnismengen filtern, sortieren und aggregieren. Als Nächstes machen Sie sich mit den gängigen Linux/Unix-Shell-Befehlen vertraut und verwenden diese, um Bash-Skripte zu erstellen.
Sie erstellen Data Pipelines für Batch- und Streaming-ETL-Aufträge mit Apache Airflow und Kafka. Schließlich implementieren Sie Data Warehouses und erstellen BI-Dashboards.