Ce cours de Deep learning fournit une introduction complète aux mécanismes d'attention et aux modèles transformateurs la base des systèmes GenAI modernes. Commencez par explorer le passage des réseaux neurones traditionnels aux architectures basées sur l'attention. Comprenez comment l'attention additive, multiplicative et l'auto-attention améliorent la précision du modèle dans les tâches de NLP et de vision. Plongez dans les mécanismes de l'auto-attention et la manière dont elle alimente des modèles tels que GPT et BERT. Progressez vers la maîtrise de l'attention multi-têtes et des composants de transformation, et explorez leur rôle dans la génération avancée de textes et d'images. Obtenez des aperçus du monde réel grâce à des démonstrations présentant GPT, DALL-E, LLaMa et BERT. Pour réussir ce cours, vous devez avoir une compréhension de base des réseaux neuronaux, des concepts d'apprentissage automatique et de la programmation Python. À la fin de ce cours, vous serez en mesure de : - Expliquer comment les mécanismes d'attention améliorent les modèles d'apprentissage profond - Mettre en œuvre et appliquer l'auto-attention et l'attention multi-têtes - Comprendre l'architecture des transformateurs et les cas d'utilisation du monde réel - Analyser les modèles génératifs de l'IA à travers la NLP et la génération d'images Idéal pour les développeurs de l'IA, les ingénieurs ML et les scientifiques des données.


Cours sur les mécanismes de l'attention et les modèles transformateurs
Ce cours fait partie de Spécialisation Modèles IA génératifs et certification des réseaux de transformateurs

Instructeur : Priyanka Mehta
Inclus avec
Expérience recommandée
Ce que vous apprendrez
Appliquer l'auto-attention et l'attention multi-têtes dans les modèles de Deep learning
Comprendre l'architecture d'un transformateur et ses principaux composants
Explorer le rôle de l'attention dans l'alimentation de modèles tels que GPT et BERT
Analyser les applications réelles de la GenAI dans le domaine du NLP et de la génération d'images
Compétences que vous acquerrez
- Catégorie : Traitement du langage naturel (NLP)
- Catégorie : Apprentissage automatique
- Catégorie : OpenAI
- Catégorie : Réseaux neuronaux artificiels
- Catégorie : Prompt engineering
- Catégorie : Architectures de modèles génératifs
- Catégorie : IA générative
- Catégorie : Deep learning
- Catégorie : Grand modèle de langage (LLM)
Détails à connaître

Ajouter à votre profil LinkedIn
7 devoirs
Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées

Élaborez votre expertise du sujet
- Apprenez de nouveaux concepts auprès d'experts du secteur
- Acquérez une compréhension de base d'un sujet ou d'un outil
- Développez des compétences professionnelles avec des projets pratiques
- Obtenez un certificat professionnel partageable

Il y a 2 modules dans ce cours
Explorez la puissance des mécanismes d'attention dans le Deep learning moderne. Comparez les architectures neuronales traditionnelles avec les modèles basés sur l'attention pour voir comment l'attention additive, multiplicative et l'auto-attention boostent la précision dans les tâches de NLP et de vision. Saisissez les mathématiques de base et le flux de l'auto-attention, le moteur derrière les géants de Transformer comme GPT et BERT et construisez une base solide pour le développement avancé de l'IA.
Inclus
10 vidéos1 lecture3 devoirs
Maîtrisez l'attention à plusieurs têtes et les modèles transformateurs dans ce module avancé. Apprenez comment l'attention multi-têtes améliore la compréhension du contexte et alimente les principales architectures de transformateurs. Explorez les composants des transformateurs, les flux de travail de génération de texte et d'image, et les cas d'utilisation réels avec des modèles comme GPT, BERT, LLaMa et DALL-E. Idéal pour créer des applications basées sur la GenAI.
Inclus
11 vidéos4 devoirs
Obtenez un certificat professionnel
Ajoutez ce titre à votre profil LinkedIn, à votre curriculum vitae ou à votre CV. Partagez-le sur les médias sociaux et dans votre évaluation des performances.
Instructeur

Offert par
En savoir plus sur Apprentissage automatique
Statut : Essai gratuit
Google Cloud
Statut : Essai gratuit
Statut : Essai gratuit
Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?





Ouvrez de nouvelles portes avec Coursera Plus
Accès illimité à 10,000+ cours de niveau international, projets pratiques et programmes de certification prêts à l'emploi - tous inclus dans votre abonnement.
Faites progresser votre carrière avec un diplôme en ligne
Obtenez un diplôme auprès d’universités de renommée mondiale - 100 % en ligne
Rejoignez plus de 3 400 entreprises mondiales qui ont choisi Coursera pour les affaires
Améliorez les compétences de vos employés pour exceller dans l’économie numérique
Foire Aux Questions
Le mécanisme d'attention permet aux modèles transformateurs de se concentrer sur les parties pertinentes des séquences d'entrée, en pesant les relations entre les tokens afin d'améliorer la compréhension du contexte et la précision dans des tâches telles que la traduction ou la génération de texte.
Oui, ChatGPT est construit sur l'architecture de transformateur, en particulier en utilisant une variante du modèle GPT (Generative pré-entraîné Transformeur), ce qui lui permet de générer des réponses semblables à celles des humains.
Le Vision Transformer (ViT) applique l'auto-attention aux patchs d'images au lieu des pixels, ce qui permet au modèle de capturer les relations spatiales et le contexte global pour une classification et une compréhension précises des images.
Plus de questions
Aide financière disponible,

