Les modèles graphiques probabilistes (MGP) constituent un cadre riche pour l'encodage des distributions de probabilité dans des domaines complexes : distributions conjointes (multivariées) sur un grand nombre de variables aléatoires qui interagissent les unes avec les autres. Ces représentations se situent à l'intersection de la statistique et de l'informatique, s'appuyant sur des concepts de la théorie des probabilités, des algorithmes de graphes, de l'apprentissage automatique, etc. Elles constituent la base des méthodes de pointe dans une grande variété d'applications, telles que le diagnostic médical, la compréhension d'images, la reconnaissance vocale, le traitement du langage naturel et bien d'autres encore. Ils constituent également un outil fondamental dans la formulation de nombreux problèmes d'apprentissage automatique.
Modèles graphiques probabilistes 2 : Inférence
Ce cours fait partie de Spécialisation Modèles graphiques probabilistes
Instructeur : Daphne Koller
26 062 déjà inscrits
(485 avis)
Compétences que vous acquerrez
- Catégorie : Inférence
- Catégorie : Échantillonnage de Gibbs
- Catégorie : Chaîne de Markov Monte Carlo (MCMC)
- Catégorie : Propagation des croyances
Détails à connaître
Ajouter à votre profil LinkedIn
8 devoirs
Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées
Élaborez votre expertise du sujet
- Apprenez de nouveaux concepts auprès d'experts du secteur
- Acquérez une compréhension de base d'un sujet ou d'un outil
- Développez des compétences professionnelles avec des projets pratiques
- Obtenez un certificat professionnel partageable
Obtenez un certificat professionnel
Ajoutez cette qualification à votre profil LinkedIn ou à votre CV
Partagez-le sur les réseaux sociaux et dans votre évaluation de performance
Il y a 7 modules dans ce cours
Ce module fournit une vue d'ensemble des principaux types de tâches d'inférence typiquement rencontrées dans les modèles graphiques : les requêtes de probabilité conditionnelle et la recherche de l'affectation la plus probable (inférence MAP).
Inclus
2 vidéos
Ce module présente l'algorithme le plus simple pour l'inférence exacte dans les modèles graphiques : l'élimination des variables. Nous décrivons l'algorithme et analysons sa complexité en termes de propriétés de la structure du graphe.
Inclus
4 vidéos1 devoir
Ce module décrit une vision alternative de l'inférence exacte dans les modèles graphiques : celle du passage de messages entre les clusters, chacun d'entre eux codant un facteur sur un sous-ensemble de variables. Ce cadre fournit une base pour une variété d'algorithmes d'inférence exacts et approximatifs. Nous nous concentrons ici sur le cadre de base et sur son instanciation dans le cas exact de la propagation d'arbres de cliques. Une leçon optionnelle décrit l'algorithme de propagation de croyances en boucle (LBP) et ses propriétés.
Inclus
9 vidéos2 devoirs1 devoir de programmation
Ce module décrit les algorithmes permettant de trouver l'affectation la plus probable pour une distribution codée sous forme de MGP (une tâche connue sous le nom d'inférence MAP). Nous décrivons les algorithmes de passage de messages, qui sont très similaires aux algorithmes de calcul des probabilités conditionnelles, à ceci près que nous devons également réfléchir à la manière de décoder les résultats pour construire une affectation unique. Dans un module optionnel, nous décrivons quelques autres algorithmes capables d'utiliser des techniques très différentes en exploitant la nature d'optimisation combinatoire de la tâche MAP.
Inclus
5 vidéos1 devoir
Dans ce module, nous discutons d'une classe d'algorithmes qui utilise l'échantillonnage aléatoire pour fournir des réponses approximatives à des requêtes de probabilités conditionnelles. La classe la plus couramment utilisée est celle des algorithmes de Monte Carlo par chaîne de Markov (MCMC), qui comprend l'algorithme simple d'échantillonnage de Gibbs, ainsi qu'une famille de méthodes connues sous le nom de Metropolis-Hastings.
Inclus
5 vidéos2 devoirs1 devoir de programmation
Dans cette brève leçon, nous discuterons de la complexité de l'application aux réseaux bayésiens dynamiques de certains algorithmes d'inférence exacts ou approximatifs que nous avons appris plus tôt dans ce cours.
Inclus
1 vidéo1 devoir
Ce module résume certains des sujets abordés dans ce cours et discute des compromis entre les différents algorithmes. Il comprend également l'examen final du cours.
Inclus
1 vidéo1 devoir
Instructeur
Offert par
Recommandé si vous êtes intéressé(e) par Apprentissage automatique
University of Amsterdam
Columbia University
Johns Hopkins University
Duke University
Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?
Avis des étudiants
485 avis
- 5 stars
71,13 %
- 4 stars
21,23 %
- 3 stars
5,15 %
- 2 stars
1,23 %
- 1 star
1,23 %
Affichage de 3 sur 485
Révisé le 28 mai 2017
I learned pretty much from this course. It answered my quandaries from the representation course, and as well deepened my understanding of PGM.
Révisé le 2 févr. 2019
Very great course! A lot of things have been learnt. The lectures, quiz and assignments clear up all key concepts. Especially, assignments are wonderful!
Révisé le 9 mars 2018
Very interesting course. However, even after completing it with honors, I feel like I don't understand a lot.
Ouvrez de nouvelles portes avec Coursera Plus
Accès illimité à 10,000+ cours de niveau international, projets pratiques et programmes de certification prêts à l'emploi - tous inclus dans votre abonnement.
Faites progresser votre carrière avec un diplôme en ligne
Obtenez un diplôme auprès d’universités de renommée mondiale - 100 % en ligne
Rejoignez plus de 3 400 entreprises mondiales qui ont choisi Coursera pour les affaires
Améliorez les compétences de vos employés pour exceller dans l’économie numérique
Foire Aux Questions
Exécuter les étapes de base d'un algorithme d'élimination de variables ou de passage de messages
Comprendre comment les propriétés de la structure du graphe influencent la complexité de l'inférence exacte, et estimer ainsi si l'inférence exacte est susceptible d'être réalisable
Passer en revue les étapes de base d'un algorithme MCMC, à la fois l'échantillonnage de Gibbs et Metropolis Hastings
Comprendre comment les propriétés de la MGP influencent l'efficacité des méthodes d'échantillonnage, et estimer ainsi si les algorithmes MCMC sont susceptibles d'être efficaces
Concevoir des distributions de propositions de Metropolis Hastings qui sont plus susceptibles de donner de bons résultats
Calculer une assignation MAP par inférence exacte
Les apprenants de la filière Honors seront capables de mettre en œuvre des algorithmes de passage de messages et des algorithmes MCMC, et de les appliquer à un problème du monde réel
L'accès aux cours et aux devoirs dépend de votre type d'inscription. Si vous suivez un cours en mode audit, vous pourrez consulter gratuitement la plupart des supports de cours. Pour accéder aux devoirs notés et obtenir un certificat, vous devrez acheter l'expérience de certificat, pendant ou après votre audit. Si vous ne voyez pas l'option d'audit :
Il se peut que le cours ne propose pas d'option d'audit. Vous pouvez essayer un essai gratuit ou demander une aide financière.
Le cours peut proposer l'option "Cours complet, pas de certificat" à la place. Cette option vous permet de consulter tous les supports de cours, de soumettre les évaluations requises et d'obtenir une note finale. Cela signifie également que vous ne pourrez pas acheter un certificat d'expérience.
Lorsque vous vous inscrivez au cours, vous avez accès à tous les cours de la Specializations, et vous obtenez un certificat lorsque vous terminez le travail. Votre certificat électronique sera ajouté à votre page de réalisations - de là, vous pouvez imprimer votre certificat ou l'ajouter à votre profil LinkedIn. Si vous souhaitez uniquement lire et visualiser le contenu du cours, vous pouvez auditer le cours gratuitement.