Ce cours IBM vous apprendra à implémenter, former et évaluer des modèles IA génératifs pour le traitement du langage naturel (NLP). Le cours vous aidera à acquérir des connaissances sur les applications NLP, y compris la classification des documents, la modélisation du langage, la traduction des langues, et les principes fondamentaux de la construction de modèles de langage de petite et grande taille. Vous apprendrez à convertir les mots en caractéristiques. Vous comprendrez l'encodage one-hot, le bag-of-words, l'embedding et l'embedding bags. Vous apprendrez également comment les modèles d'encastrement Word2Vec sont utilisés pour la représentation des caractéristiques dans les données textuelles. Vous mettrez en œuvre ces capacités à l'aide de PyTorch. Le cours vous apprendra à construire, entraîner et optimiser des réseaux neurones pour la catégorisation de documents. En outre, vous apprendrez à connaître le modèle de langage N-gram et les modèles séquence à séquence. Ce cours vous aidera à évaluer la qualité du texte généré en utilisant des métriques, telles que BLEU. Vous pratiquerez ce que vous apprenez à l'aide de laboratoires pratiques et effectuerez des tâches telles que la mise en œuvre de la classification de documents à l'aide de torchtext dans PyTorch. Vous acquerrez les compétences nécessaires pour construire et entraîner un modèle de langage simple avec un réseau neurones pour générer du texte et intégrer des modèles d'intégration pré-entraînés, tels que word2vec, pour l'analyse et la classification de texte. En outre, vous appliquerez vos nouvelles compétences pour développer des modèles séquence à séquence dans PyTorch et effectuer des tâches telles que la traduction linguistique.
Modèles fondamentaux de l'IA pour le NLP et la compréhension du langage
Ce cours fait partie de plusieurs programmes.
Instructeurs : Joseph Santarcangelo
3 323 déjà inscrits
Inclus avec
(38 avis)
Expérience recommandée
Ce que vous apprendrez
Expliquer comment utiliser l'encodage one-hot, les sacs de mots, l'encastrement et les sacs d'encastrement pour convertir les mots en caractéristiques.
Construire et utiliser des modèles word2vec pour l'intégration contextuelle.
Construire et entraîner un modèle de langage simple avec un réseau neurones.
Utiliser les modèles N-gram et séquence à séquence pour la classification de documents, l'analyse de textes et la transformation de séquences.
Compétences que vous acquerrez
- Catégorie : N-Gram
- Catégorie : PyTorch texte de la torche
- Catégorie : IA générative pour le NLP
- Catégorie : Modèle Word2Vec
- Catégorie : Modèle séquence à séquence
Détails à connaître
Ajouter à votre profil LinkedIn
5 devoirs
Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées
Élaborez votre expertise du sujet
- Apprenez de nouveaux concepts auprès d'experts du secteur
- Acquérez une compréhension de base d'un sujet ou d'un outil
- Développez des compétences professionnelles avec des projets pratiques
- Obtenez un certificat professionnel partageable
Obtenez un certificat professionnel
Ajoutez cette qualification à votre profil LinkedIn ou à votre CV
Partagez-le sur les réseaux sociaux et dans votre évaluation de performance
Il y a 2 modules dans ce cours
Dans ce module, vous découvrirez l'encodage one-hot, les sacs de mots, les encastrements et les sacs d'encastrement. Vous acquerrez également des connaissances sur les réseaux neurones et leurs hyperparamètres, la perte d'entropie croisée et l'optimisation. Vous approfondirez ensuite le concept de modélisation du langage avec les n-grammes. Le module comprend également des travaux pratiques sur la classification de documents avec PyTorch et la construction d'un modèle de langage simple avec un réseau neuronal.
Inclus
7 vidéos4 lectures3 devoirs2 éléments d'application1 plugin
Dans ce module, vous découvrirez le modèle d'intégration word2vec et ses types. Vous serez également initié aux modèles séquence à séquence et à la manière dont ils emploient les Réseaux neurones récurrents (RNN) pour traiter des séquences d'entrée de longueur variable et générer des séquences de sortie de longueur variable. Vous aurez un aperçu des modèles RNN codeur-décodeur, de leur architecture et de la manière de les construire en utilisant PyTorch. Le module vous donnera des connaissances sur l'évaluation de la qualité du texte en utilisant la perplexité, la précision et le rappel dans la génération de texte. Dans les laboratoires pratiques, vous intégrerez des modèles d'intégration pré-entraînés pour l'analyse ou la classification de texte et développerez un modèle séquence à séquence pour les tâches de transformation de séquences.
Inclus
6 vidéos5 lectures2 devoirs2 éléments d'application3 plugins
Instructeurs
Offert par
Recommandé si vous êtes intéressé(e) par Apprentissage automatique
Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?
Ouvrez de nouvelles portes avec Coursera Plus
Accès illimité à 10,000+ cours de niveau international, projets pratiques et programmes de certification prêts à l'emploi - tous inclus dans votre abonnement.
Faites progresser votre carrière avec un diplôme en ligne
Obtenez un diplôme auprès d’universités de renommée mondiale - 100 % en ligne
Rejoignez plus de 3 400 entreprises mondiales qui ont choisi Coursera pour les affaires
Améliorez les compétences de vos employés pour exceller dans l’économie numérique
Foire Aux Questions
Il ne vous faudra que deux semaines pour terminer ce cours si vous consacrez quatre heures d'étude par semaine.
Il sera bon que vous ayez une connaissance de base de Python et une familiarité avec l'apprentissage automatique et les concepts de réseaux neurones.
PS : Le Prétraitement / Nettoyage des données n'est pas couvert dans ce cours.
Ce cours fait partie d'une spécialisation. Lorsque vous terminerez la spécialisation, vous vous préparerez avec les compétences et la confiance nécessaires pour occuper des postes tels que ingénieur IA, ingénieur NLP, ingénieur en apprentissage automatique, ingénieur en apprentissage profond et scientifique des données.