Probabilistische grafische Modelle (PGMs) sind ein reichhaltiger Rahmen für die Kodierung von Wahrscheinlichkeitsverteilungen in komplexen Bereichen: gemeinsame (multivariate) Verteilungen über eine große Anzahl von Zufallsvariablen, die miteinander interagieren. Diese Darstellungen befinden sich an der Schnittstelle zwischen Statistik und Informatik und stützen sich auf Konzepte aus der Wahrscheinlichkeitstheorie, Graphenalgorithmen, maschinelles Lernen und mehr. Sie bilden die Grundlage für die modernsten Methoden in einer Vielzahl von Anwendungen, wie z.B. der medizinischen Diagnose, dem Bildverständnis, der Spracherkennung, der Verarbeitung natürlicher Sprache und vielen, vielen mehr. Sie sind auch ein grundlegendes Werkzeug bei der Formulierung vieler Probleme des maschinellen Lernens.
Probabilistische grafische Modelle 2: Inferenz
Dieser Kurs ist Teil von Spezialisierung Probabilistische grafische Modelle
Dozent: Daphne Koller
26.062 bereits angemeldet
(485 Bewertungen)
Kompetenzen, die Sie erwerben
- Kategorie: Inferenz
- Kategorie: Gibbssche Stichprobe
- Kategorie: Markov-Ketten-Monte-Carlo (MCMC)
- Kategorie: Propagierung von Überzeugungen
Wichtige Details
Zu Ihrem LinkedIn-Profil hinzufügen
8 Aufgaben
Erfahren Sie, wie Mitarbeiter führender Unternehmen gefragte Kompetenzen erwerben.
Erweitern Sie Ihre Fachkenntnisse
- Lernen Sie neue Konzepte von Branchenexperten
- Gewinnen Sie ein Grundverständnis bestimmter Themen oder Tools
- Erwerben Sie berufsrelevante Kompetenzen durch praktische Projekte
- Erwerben Sie ein Berufszertifikat zur Vorlage
Erwerben Sie ein Karrierezertifikat.
Fügen Sie diese Qualifikation zur Ihrem LinkedIn-Profil oder Ihrem Lebenslauf hinzu.
Teilen Sie es in den sozialen Medien und in Ihrer Leistungsbeurteilung.
In diesem Kurs gibt es 7 Module
Dieses Modul bietet einen Überblick über die wichtigsten Arten von Inferenzaufgaben, die typischerweise bei grafischen Modellen auftreten: Abfragen bedingter Wahrscheinlichkeiten und das Finden der wahrscheinlichsten Zuordnung (MAP-Inferenz).
Das ist alles enthalten
2 Videos
In diesem Modul wird der einfachste Algorithmus für die exakte Inferenz in grafischen Modellen vorgestellt: die Variableneliminierung. Wir beschreiben den Algorithmus und analysieren seine Komplexität im Hinblick auf die Eigenschaften der Graphenstruktur.
Das ist alles enthalten
4 Videos1 Aufgabe
Dieses Modul beschreibt eine alternative Sichtweise der exakten Inferenz in grafischen Modellen: die der Nachrichtenübermittlung zwischen Clustern, von denen jedes einen Faktor über eine Teilmenge von Variablen kodiert. Dieser Rahmen bietet eine Grundlage für eine Vielzahl von exakten und approximativen Inferenzalgorithmen. Wir konzentrieren uns hier auf den grundlegenden Rahmen und auf seine Instanziierung im exakten Fall der Cliquenbaumpropagation. Eine optionale Lektion beschreibt den LBP-Algorithmus (loopy belief propagation) und seine Eigenschaften.
Das ist alles enthalten
9 Videos2 Aufgaben1 Programmieraufgabe
Dieses Modul beschreibt Algorithmen zur Ermittlung der wahrscheinlichsten Zuordnung für eine als PGM kodierte Verteilung (eine Aufgabe, die als MAP-Inferenz bekannt ist). Wir beschreiben Algorithmen zur Nachrichtenübermittlung, die den Algorithmen zur Berechnung bedingter Wahrscheinlichkeiten sehr ähnlich sind, mit der Ausnahme, dass wir uns auch überlegen müssen, wie wir die Ergebnisse dekodieren, um eine einzelne Zuordnung zu konstruieren. In einem optionalen Modul beschreiben wir einige andere Algorithmen, die ganz andere Techniken verwenden können, indem sie die kombinatorische Optimierung der MAP-Aufgabe ausnutzen.
Das ist alles enthalten
5 Videos1 Aufgabe
In diesem Modul besprechen wir eine Klasse von Algorithmen, die Zufallsstichproben verwenden, um ungefähre Antworten auf bedingte Wahrscheinlichkeitsabfragen zu liefern. Am häufigsten wird die Klasse der Markov-Chain-Monte-Carlo-Algorithmen (MCMC) verwendet, zu denen der einfache Gibbs-Sampling-Algorithmus sowie eine Familie von Methoden gehören, die als Metropolis-Hastings bekannt sind.
Das ist alles enthalten
5 Videos2 Aufgaben1 Programmieraufgabe
In dieser kurzen Lektion erörtern wir die Komplexität der Anwendung einiger der exakten oder approximativen Inferenzalgorithmen, die wir in diesem Kurs gelernt haben, auf dynamische Bayes'sche Netzwerke.
Das ist alles enthalten
1 Video1 Aufgabe
Dieses Modul fasst einige der Themen zusammen, die wir in diesem Kurs behandelt haben, und diskutiert Kompromisse zwischen verschiedenen Algorithmen. Es enthält auch die Abschlussprüfung des Kurses.
Das ist alles enthalten
1 Video1 Aufgabe
Dozent
Empfohlen, wenn Sie sich für Maschinelles Lernen interessieren
University of Amsterdam
Columbia University
Johns Hopkins University
Warum entscheiden sich Menschen für Coursera für ihre Karriere?
Bewertungen von Lernenden
485 Bewertungen
- 5 stars
71,13 %
- 4 stars
21,23 %
- 3 stars
5,15 %
- 2 stars
1,23 %
- 1 star
1,23 %
Zeigt 3 von 485 an
Geprüft am 28. Mai 2017
I learned pretty much from this course. It answered my quandaries from the representation course, and as well deepened my understanding of PGM.
Geprüft am 19. Jan. 2021
Great course! Course has filled gaps in my knowledge from statistics and similar sciences.
Geprüft am 19. Aug. 2019
I have clearly learnt a lot during this course. Even though some things should be updated and maybe completed, I would definitely recommend it to anyone whose interest lies in PGMs.
Neue Karrieremöglichkeiten mit Coursera Plus
Unbegrenzter Zugang zu 10,000+ Weltklasse-Kursen, praktischen Projekten und berufsqualifizierenden Zertifikatsprogrammen - alles in Ihrem Abonnement enthalten
Bringen Sie Ihre Karriere mit einem Online-Abschluss voran.
Erwerben Sie einen Abschluss von erstklassigen Universitäten – 100 % online
Schließen Sie sich mehr als 3.400 Unternehmen in aller Welt an, die sich für Coursera for Business entschieden haben.
Schulen Sie Ihre Mitarbeiter*innen, um sich in der digitalen Wirtschaft zu behaupten.
Häufig gestellte Fragen
Die grundlegenden Schritte eines Algorithmus zur Variableneliminierung oder Nachrichtenübermittlung ausführen
Verstehen, wie die Eigenschaften der Graphenstruktur die Komplexität der exakten Inferenz beeinflussen, und dadurch abschätzen, ob eine exakte Inferenz wahrscheinlich machbar ist
Die grundlegenden Schritte eines MCMC-Algorithmus durchgehen, sowohl Gibbs Sampling als auch Metropolis Hastings
Verstehen, wie die Eigenschaften des PGM die Effizienz von Sampling-Methoden beeinflussen, und dadurch abschätzen, ob MCMC-Algorithmen wahrscheinlich effektiv sind
Entwurf von Metropolis-Hastings-Vorschlagsverteilungen, die mit größerer Wahrscheinlichkeit gute Ergebnisse liefern
Berechnen Sie eine MAP-Zuweisung durch exakte Inferenz
Die Teilnehmer des Honors-Tracks werden in der Lage sein, Message-Passing-Algorithmen und MCMC-Algorithmen zu implementieren und auf ein reales Problem anzuwenden
Der Zugang zu Vorlesungen und Aufgaben hängt von der Art Ihrer Einschreibung ab. Wenn Sie einen Kurs im Prüfungsmodus belegen, können Sie die meisten Kursmaterialien kostenlos einsehen. Um auf benotete Aufgaben zuzugreifen und ein Zertifikat zu erwerben, müssen Sie die Zertifikatserfahrung während oder nach Ihrer Prüfung erwerben. Wenn Sie die Prüfungsoption nicht sehen:
Der Kurs bietet möglicherweise keine Prüfungsoption. Sie können stattdessen eine kostenlose Testversion ausprobieren oder finanzielle Unterstützung beantragen.
Der Kurs bietet möglicherweise stattdessen die Option 'Vollständiger Kurs, kein Zertifikat'. Mit dieser Option können Sie alle Kursmaterialien einsehen, die erforderlichen Bewertungen abgeben und eine Abschlussnote erhalten. Dies bedeutet auch, dass Sie kein Zertifikat erwerben können.
Wenn Sie sich für den Kurs einschreiben, erhalten Sie Zugang zu allen Kursen der Specializations, und Sie erhalten ein Zertifikat, wenn Sie die Arbeit abgeschlossen haben. Ihr elektronisches Zertifikat wird Ihrer Erfolgsseite hinzugefügt - von dort aus können Sie Ihr Zertifikat ausdrucken oder zu Ihrem LinkedIn-Profil hinzufügen. Wenn Sie die Kursinhalte nur lesen und ansehen möchten, können Sie den Kurs kostenlos besuchen.