Dans ce cours, vous apprendrez divers algorithmes de ML supervisés et des tâches de prédiction appliquées à différentes données. Vous apprendrez quand utiliser quel modèle et pourquoi, et comment améliorer les performances du modèle. Nous couvrirons des modèles tels que la régression linéaire et logistique, KNN, les arbres de décision et les méthodes d'assemblage telles que Random Forest et Boosting, les méthodes à noyau telles que SVM. Une connaissance préalable du codage ou des scripts est requise. Nous utiliserons largement Python tout au long du cours. Dans ce cours, vous devrez avoir une base solide en Python ou une expérience suffisante du codage avec d'autres langages de programmation pour apprendre rapidement Python.
Introduction à l'apprentissage automatique : Apprentissage supervisé
Ce cours fait partie de Spécialisation Apprentissage automatique : Théorie et pratique avec Python
Instructeur : Geena Kim
14 911 déjà inscrits
Inclus avec
(59 avis)
Expérience recommandée
Ce que vous apprendrez
Utilisez des outils modernes d'apprentissage automatique et des bibliothèques python.
Comparez les forces et les faiblesses de la régression logistique.
Expliquez comment traiter des données linéairement inséparables.
Expliquez ce qu'est un arbre de décision et comment il divise les nœuds.
Compétences que vous acquerrez
- Catégorie : Hyperparamètre
- Catégorie : sklearn
- Catégorie : assemblage
- Catégorie : Arbre de décision
Détails à connaître
Ajouter à votre profil LinkedIn
8 quizzes, 1 devoir
Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées
Élaborez votre expertise du sujet
- Apprenez de nouveaux concepts auprès d'experts du secteur
- Acquérez une compréhension de base d'un sujet ou d'un outil
- Développez des compétences professionnelles avec des projets pratiques
- Obtenez un certificat professionnel partageable
Obtenez un certificat professionnel
Ajoutez cette qualification à votre profil LinkedIn ou à votre CV
Partagez-le sur les réseaux sociaux et dans votre évaluation de performance
Il y a 6 modules dans ce cours
Cette semaine, nous allons construire notre base d'apprentissage automatique supervisé. Le nettoyage des données et l'AED peuvent ne pas sembler glamour, mais le processus est vital pour guider vos projets de données du monde réel. Il y a de fortes chances que vous ayez déjà entendu parler de la régression linéaire. Avec l'engouement pour l'apprentissage automatique, il peut sembler surprenant que nous commencions par une technique statistique aussi standard. Dans "How Not to Be Wrong : The Power of Mathematical Thinking", Jordan Ellenberg qualifie la régression linéaire de "technique statistique qui est aux sciences sociales ce que le tournevis est aux réparations domestiques. C'est le seul outil que vous utiliserez, quelle que soit la tâche à accomplir" (51). La régression linéaire est un excellent point de départ pour résoudre les problèmes dont le résultat est continu. Nous espérons que cette semaine vous aidera à apprécier tout ce que vous pouvez accomplir avec un modèle aussi simple que celui-ci.
Inclus
5 vidéos12 lectures3 quizzes1 devoir1 devoir de programmation1 évaluation par les pairs2 sujets de discussion
Cette semaine, nous nous appuyons sur les bases de la semaine dernière pour travailler avec des modèles de régression linéaire plus complexes. Après cette semaine, vous serez en mesure de créer des modèles linéaires avec plusieurs variables explicatives et catégorielles. D'un point de vue mathématique et syntaxique, les modèles de régression linéaire multiple sont une extension naturelle des modèles de régression linéaire plus simples que nous avons appris la semaine dernière. L'une des différences que nous devons garder à l'esprit cette semaine est que notre espace de données est désormais en 3D et non plus en 2D. La différence entre 3D et 2D a des implications sur la façon de créer des visualisations significatives. Il est essentiel de comprendre comment interpréter les coefficients. L'apprentissage automatique implique une itération stratégique et l'amélioration d'un modèle. Dans le laboratoire et l'évaluation par les pairs de cette semaine, vous identifierez les faiblesses des modèles de régression linéaire et les améliorerez de manière stratégique. Nous espérons qu'au fur et à mesure que vous progresserez dans ce cours de spécialisation, vous deviendrez de plus en plus performant dans ce processus itératif.
Inclus
4 vidéos5 lectures1 quiz1 devoir de programmation1 évaluation par les pairs
Bien que le nom de régression logistique puisse suggérer le contraire, nous allons cette semaine passer des tâches de régression aux tâches de classification. La régression logistique est un cas particulier de modèle linéaire généralisé. Comme la régression linéaire, la régression logistique est un outil statistique largement utilisé et l'un des outils fondamentaux de votre boîte à outils de science des données. Il existe de nombreuses applications réelles pour les tâches de classification, notamment dans les domaines financier et biomédical. Dans le laboratoire de cette semaine, vous verrez comment cet algorithme classique vous aidera à prédire si une lame de biopsie provenant du célèbre ensemble de données sur le cancer du sein du Wisconsin présente une masse bénigne ou maligne. Nous vous conseillons également de commencer cette semaine le projet final que vous rendrez à la semaine 7 du cours. Cette semaine, trouvez un ensemble de données pour votre projet, commencez à effectuer l'EDA et définissez votre problème. Utilisez la rubrique du projet comme guide, et n'ayez pas peur d'examiner plusieurs jeux de données jusqu'à ce que vous en trouviez un qui convienne au projet.
Inclus
4 vidéos6 lectures1 quiz1 devoir de programmation1 évaluation par les pairs
Cette semaine, nous allons nous familiariser avec les modèles non paramétriques. Le modèle des plus proches voisins (k-Nearest Neighbors) est intuitivement logique. Les arbres de décision sont un modèle d'apprentissage supervisé qui peut être utilisé pour des tâches de régression ou de classification. Dans le module 2, nous avons découvert le compromis biais-variance, que nous avons gardé à l'esprit tout au long du cours. Les modèles arborescents très flexibles présentent l'avantage de pouvoir capturer des relations complexes et non linéaires. Cependant, ils sont enclins à l'ajustement excessif. Cette semaine et la semaine prochaine, nous explorerons des stratégies telles que l'élagage pour éviter l'overfitting avec les modèles arborescents. Dans le laboratoire de cette semaine, vous créerez un classificateur KNN pour le célèbre ensemble de données MNIST et construirez ensuite un classificateur de spam à l'aide d'un modèle d'arbre de décision. Cette semaine, nous apprécierons une fois de plus la puissance des modèles simples et compréhensibles. Poursuivez votre projet final. Une fois que vous avez finalisé votre ensemble de données et votre AED, commencez à travailler sur l'approche initiale de votre tâche principale d'apprentissage supervisé. Révisez le matériel de cours, lisez des articles de recherche, regardez les dépôts GitHub et les articles Medium pour comprendre votre sujet et planifier votre approche.
Inclus
5 vidéos6 lectures1 quiz1 devoir de programmation1 évaluation par les pairs
La semaine dernière, nous avons découvert les modèles d'arbres. Malgré tous les avantages qu'ils présentent, ces modèles ont quelques faiblesses difficiles à surmonter. Cette semaine, nous allons découvrir les méthodes d'assemblage qui permettent de surmonter la tendance des modèles d'arbre à se surajuster. Le gagnant utilise une approche d'ensemble dans de nombreux concours d'apprentissage automatique, en agrégeant les prédictions de plusieurs modèles d'arbres. Cette semaine, vous commencerez par découvrir les forêts aléatoires et le bagging, une technique qui consiste à entraîner le même algorithme avec différents sous-ensembles de données d'entraînement. Vous découvrirez ensuite le boosting, une méthode d'ensemble dans laquelle les modèles s'entraînent de manière séquentielle. Vous découvrirez deux algorithmes de boosting essentiels : AdaBoost et Gradient Boosting. Cette semaine, travaillez sur l'analyse principale de votre projet final. Répétez et améliorez vos modèles. Comparez différents modèles. Optimisez les hyperparamètres. Parfois, cette partie d'un projet d'apprentissage automatique peut sembler fastidieuse, mais, avec un peu de chance, il sera gratifiant de voir vos performances s'améliorer.
Inclus
4 vidéos5 lectures1 quiz1 devoir de programmation1 évaluation par les pairs
Cette semaine, nous allons explorer un autre sujet avancé, les machines à vecteurs de support. Ne vous laissez pas intimider par ce nom. Cette semaine, nous allons travailler sur la compréhension de ce puissant modèle d'apprentissage supervisé. Nous espérons que vous parviendrez à une compréhension intuitive de concepts essentiels tels que la différence entre les marges dures et douces, l'astuce du noyau et le réglage des hyperparamètres. La semaine prochaine, vous soumettrez les trois livrables de votre projet final : le rapport, la présentation vidéo et un lien vers votre dépôt GitHub. Supposons que vous souhaitiez terminer cette semaine l'itération sur vos modèles, l'optimisation des hyperparamètres, etc. Dans ce cas, la semaine prochaine, vous pourrez peaufiner votre rapport, vous assurer que votre dépôt GitHub est prêt pour l'évaluation par les pairs et faire une excellente présentation de votre travail.
Inclus
4 vidéos4 lectures1 quiz1 devoir de programmation1 évaluation par les pairs
Instructeur
Offert par
Recommandé si vous êtes intéressé(e) par Apprentissage automatique
Alberta Machine Intelligence Institute
University of Colorado Boulder
Alberta Machine Intelligence Institute
Préparer un diplôme
Ce site cours fait partie du (des) programme(s) diplômant(s) suivant(s) proposé(s) par University of Colorado Boulder. Si vous êtes admis et que vous vous inscrivez, les cours que vous avez suivis peuvent compter pour l'apprentissage de votre diplôme et vos progrès peuvent être transférés avec vous.¹
Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?
Avis des étudiants
59 avis
- 5 stars
37,28 %
- 4 stars
20,33 %
- 3 stars
8,47 %
- 2 stars
8,47 %
- 1 star
25,42 %
Affichage de 3 sur 59
Révisé le 4 avr. 2024
Peer review requirements are too specific and contain some minor errors that can be confusing.
Révisé le 12 nov. 2024
Best free MOOC on Coursera for supervised learning.
Révisé le 1 août 2023
I was happy not much with the shoddiness in the assignments but by the fact that this course was centered more about practicing and reading by the student themselves.
Ouvrez de nouvelles portes avec Coursera Plus
Accès illimité à 10,000+ cours de niveau international, projets pratiques et programmes de certification prêts à l'emploi - tous inclus dans votre abonnement.
Faites progresser votre carrière avec un diplôme en ligne
Obtenez un diplôme auprès d’universités de renommée mondiale - 100 % en ligne
Rejoignez plus de 3 400 entreprises mondiales qui ont choisi Coursera pour les affaires
Améliorez les compétences de vos employés pour exceller dans l’économie numérique
Foire Aux Questions
Un cours cross-listed est proposé dans le cadre de deux ou plusieurs programmes diplômants de CU Boulder sur Coursera. Par exemple, Dynamic Programming, Greedy Algorithms est proposé en tant que CSCA 5414 pour le MS-CS et DTSA 5503 pour le MS-DS.
- Vous ne pouvez pas obtenir de crédits pour plus d'une version d'un cours figurant sur une liste croisée.
- Vous pouvez identifier les cours à liste croisée en consultant le manuel de l'étudiant de votre programme.
- Votre relevé de notes en sera affecté. Les cours figurant sur des listes croisées sont considérés comme équivalents lors de l'évaluation des conditions d'obtention du diplôme. Toutefois, nous vous encourageons à suivre les versions de votre programme de ces cours (lorsqu'ils sont disponibles) afin de vous assurer que votre relevé de notes reflète le nombre important de cours que vous suivez directement dans votre département d'origine. Tous les cours que vous suivez dans le cadre d'un autre programme apparaîtront sur votre relevé de notes avec le préfixe de ce programme (par exemple, DTSA ou CSCA).
- Les programmes peuvent avoir des exigences différentes en matière de notes minimales pour l'admission et l'obtention du diplôme. Par exemple, le MS-DS exige un C ou mieux dans tous les cours pour l'obtention du diplôme (et une MPC de 3,0 pour l'admission), tandis que le MS-CS exige un B ou mieux dans tous les cours d'approfondissement et un C ou mieux dans tous les cours à option pour l'obtention du diplôme (et un B ou mieux dans chaque cours de la voie d'accès pour l'admission). Tous les programmes exigent que les étudiants maintiennent une moyenne pondérée cumulative de 3,0 pour l'admission et l'obtention du diplôme.
Oui. Les cours figurant sur des listes croisées sont considérés comme équivalents lors de l'évaluation des conditions d'obtention du diplôme. Vous pouvez identifier les cours croisés en consultant le manuel de l'étudiant de votre programme.
Vous pouvez mettre à niveau et payer des frais de scolarité pendant toute période d'inscription ouverte pour obtenir des crédits de CU Boulder de niveau supérieur pour << ce cours / ces cours dans cette spécialisation>>. Étant donné que << ce cours est / ces cours sont >> répertoriés à la fois dans les programmes MS in Computer Science et MS in Data Science, vous devrez déterminer quel programme vous souhaitez obtenir le crédit avant de vous mettre à niveau.
Crédit MS in Data Science (MS-DS) : Pour passer à la version de << ce cours / ces cours >> donnant droit à des crédits en science des données (DTSA), utilisez le formulaire d'inscription au MS-DS. Voir comment cela fonctionne.
MS in Computer Science (MS-CS) Credit : Pour passer à la version à crédits en informatique (CSCA) de << ce cours / ces cours >>, utilisez le formulaire d'inscription MS-CS. Voir comment cela fonctionne.
Si vous n'êtes pas sûr du programme qui vous convient le mieux, consultez les sites web des programmes MS-CS et MS-DS, puis contactez datascience@colorado.edu ou mscscoursera-info@colorado.edu si vous avez encore des questions.