Le marché de l'emploi des analystes en informatique décisionnelle (BI) devrait croître de 23 % entre 2021 et 2031 (US Bureau of Labor Statistics). Cette spécialisation IBM vous permet d'acquérir les compétences recherchées par les employeurs lorsqu'ils recrutent un analyste BI.
Les analystes BI rassemblent, nettoient et analysent les données clés de l'entreprise pour trouver des modèles et des idées qui aident à la prise de décision.
Au cours de cette spécialisation, vous apprendrez les bases de SQL, en vous concentrant sur la manière d' interroger les bases de données relationnelles à l'aide de ce langage populaire et puissant. Vous utiliserez les commandes essentielles de Linux pour créer des scripts shell de base. De plus, vous apprendrez à construire et à automatiser l'ETL, l'ELT et les pipelines de données à l'aide de scripts Bash, Apache Airflow et Apache Kafka.
Vous découvrirez pourquoi les entreprises utilisent des Lacs en cours d'utilisation et des Data Mart, et travaillerez avec un Entrepôt de données. De plus, vous plongerez dans l'aspect gratifiant de la BI, en créant des rapports et des tableaux de bord interactifs afin que vous puissiez tirer des enseignements des données de votre entrepôt.
En outre, vous acquerrez une pratique précieuse en employant des outils du monde réel utilisés par les professionnels des données. Chaque cours comporte de nombreux laboratoires pratiques et inclut un projet, ce qui vous donnera beaucoup de choses à raconter lors des entretiens.
Lorsque vous aurez terminé le programme complet, vous disposerez d'un portfolio de projets à partager et d'un certificat de spécialisation pour votre CV et votre profil LinkedIn.
Commencez à travailler dans le domaine de l'informatique décisionnelle, un domaine très demandé. Inscrivez-vous dès aujourd'hui.
Projet d'apprentissage appliqué
À l'aide de laboratoires pratiques et de projets de cours hébergés dans des environnements basés sur le cloud, vous acquerrez une expérience prête à l'emploi avec les outils et les tâches du monde réel suivants :
Rédaction de requêtes SQL et création de jointures à l'aide des bases de données PostgreSQL, MySQL et DB2
Exécution de commandes et de tuyaux Linux, création de scripts shell
Planification de tâches à l'aide de cron, construction d'ETL et de pipelines de données, création et surveillance de DAG Airflow, travail avec des données en streaming à l'aide de Kafka
Conception d'entrepôts de données à l'aide de schémas en étoile et de schémas en flocon (snowflake)
Vérification de la qualité des données, chargement des entrepôts de stockage et de production
Développer des cubes, des rollups et des vues/tables matérialisées
Création de rapports et de tableaux de bord interactifs
Analyser les données de l'entrepôt à l'aide d'outils informatiques décisionnels (BI) tels que Cognos Analytics