Ce cours complet sur la Mémoire court et long terme (LSTM) vous permet d'acquérir les compétences nécessaires pour construire des modèles séquence à séquence avancés pour la prévision des séries temporelles et le traitement du langage naturel. Commencez par comprendre les principes fondamentaux des réseaux neurones récurrents (RNN) et la manière dont les LSTM traitent les problèmes de gradient de disparition. Plongez dans l'architecture des LSTM : apprenez les fonctions des portes d'oubli, d'entrée et de sortie et comment elles gèrent la mémoire dans le temps. Passez à des applications pratiques dans des secteurs tels que la finance, la santé et les systèmes de chat pilotés par l'IA. Acquérir une expérience pratique grâce à des démonstrations guidées qui vous guident à travers des implémentations de LSTM dans le monde réel. Pour réussir ce cours, vous devez avoir une compréhension de base de Python, des principes fondamentaux de l'apprentissage automatique et des architectures de réseaux neurones.


Introduction à la formation à la Mémoire court et long terme (LSTM)

Instructeur : Priyanka Mehta
Inclus avec
Expérience recommandée
Ce que vous apprendrez
Comprendre comment les réseaux LSTM surmontent les limites des RNN dans la modélisation des séquences
Apprendre la structure et la fonction des portes LSTM : oubli, entrée et sortie
Appliquer la Mémoire court et long terme (LSTM) à des tâches réelles telles que la prévision de séries temporelles et le NLP
Construire et évaluer des modèles LSTM grâce à des démonstrations pratiques étape par étape
Compétences que vous acquerrez
- Catégorie : Réseaux neuronaux artificiels
- Catégorie : Prétraitement de données
- Catégorie : Tensorflow
- Catégorie : PyTorch (Bibliothèque d'Apprentissage automatique)
- Catégorie : Keras (bibliothèque de réseaux neurones)
- Catégorie : Deep learning
- Catégorie : Analyse des séries temporelles et prévisions
- Catégorie : Apprentissage automatique appliqué
- Catégorie : Traitement du langage naturel (NLP)
- Catégorie : Réseaux neuronaux récurrents (RNN)
Détails à connaître

Ajouter à votre profil LinkedIn
juin 2025
3 devoirs
Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées

Il y a un module dans ce cours
Maîtrisez les principes fondamentaux des réseaux de Mémoire court et long terme (LSTM) dans ce module pratique. Commencez par les bases des RNN et comprenez comment les LSTM surmontent leurs limitations. Explorez l'architecture des LSTM, y compris les portes d'oubli, d'entrée et de sortie. Apprentissage par le renforcement de l'implémentation pratique des LSTM dans des applications réelles de Séries chronologiques, NLP et autres.
Inclus
8 vidéos1 lecture3 devoirs
Instructeur

Offert par
En savoir plus sur Apprentissage automatique
Statut : Essai gratuit
Statut : Essai gratuit
Statut : Essai gratuit
Statut : Essai gratuit
Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?





Ouvrez de nouvelles portes avec Coursera Plus
Accès illimité à 10,000+ cours de niveau international, projets pratiques et programmes de certification prêts à l'emploi - tous inclus dans votre abonnement.
Faites progresser votre carrière avec un diplôme en ligne
Obtenez un diplôme auprès d’universités de renommée mondiale - 100 % en ligne
Rejoignez plus de 3 400 entreprises mondiales qui ont choisi Coursera pour les affaires
Améliorez les compétences de vos employés pour exceller dans l’économie numérique
Foire Aux Questions
La LSTM (Mémoire court et long terme) est un type de réseau neuronal récurrent (RNN) conçu pour capturer les dépendances à long terme dans les données séquentielles. Il surmonte les limites des RNN traditionnels en utilisant des mécanismes de porte pour retenir ou oublier des informations.
Les principales portes d'une LSTM sont la porte d'oubli, la porte d'entrée, la porte de sortie et parfois une porte cellulaire (bien qu'elle soit généralement considérée comme faisant partie de la logique de la porte d'entrée). Ces portes régulent le flux d'informations, ce qui permet au modèle de gérer efficacement la mémoire.
La technique LSTM implique l'utilisation de cellules gated pour contrôler le flux d'informations dans le temps, ce qui la rend idéale pour des tâches telles que la prédiction de séries chronologiques, la modélisation du langage et la reconnaissance vocale, où le contexte des entrées passées est important.
Plus de questions
Aide financière disponible,

