Ce cours complet sur l'évaluation et l'application des capacités LLM vous permet d'acquérir les compétences nécessaires pour analyser, mettre en œuvre et évaluer de grands modèles de langage dans des scénarios réels. Commencez par les capacités de base, apprenez le résumé, la traduction et comment les LLM alimentent la génération de contenu pertinent pour l'industrie. Passez aux applications interactives et analytiques - explorez les chatbots, les assistants virtuels et l'analyse des sentiments avec des démonstrations pratiques utilisant LangChain et ChromaDB. Terminez par le benchmarking et l'évaluation - maîtrisez des frameworks comme ROUGE, GLUE, SuperGLUE et BIG-bench pour mesurer la précision, la pertinence et la performance des modèles. Pour réussir ce cours, vous devez avoir une compréhension de base des LLM, de Python et des fondamentaux du NLP. À la fin de ce cours, vous serez en mesure de : - Explorer les capacités des LLM : Comprendre le résumé, la traduction, et leurs applications - Construire des applications LLM : Créer des chatbots et des outils d'analyse des sentiments en utilisant des outils du monde réel - Évaluer la performance des modèles : Évaluer la performance du modèle : Utiliser ROUGE, GLUE, et BIG-bench pour comparer les LLMs - Analyser les cas d'utilisation : Évaluer les avantages, les limites et le déploiement de solutions alimentées par les LLM Idéal pour les développeurs IA, les ingénieurs ML et les professionnels de la GenAI.

Profitez d'une croissance illimitée avec un an de Coursera Plus pour 199 $ (régulièrement 399 $). Économisez maintenant.

Formation à l'analyse comparative et à l'évaluation du LLM
Ce cours fait partie de Spécialisation Certification en ingénierie et développement d'applications LLM

Instructeur : Priyanka Mehta
Inclus avec
Expérience recommandée
Ce que vous apprendrez
Analyser les capacités essentielles du LLM : Maîtriser la synthèse, la traduction et la génération de contenu
Créer des applications GenAI : Créer des chatbots et des outils d'analyse des sentiments avec LangChain
Évaluer la performance du LLM : Utiliser des benchmarks comme ROUGE, GLUE, et BIG-bench
Appliquer des cas d'utilisation réels : Comprendre les applications industrielles et les limites des LIMIT
Compétences que vous acquerrez
- Catégorie : LangChain
- Catégorie : Analytique
- Catégorie : Candidature au LLM
- Catégorie : Traitement du langage naturel (NLP)
- Catégorie : ChatGPT
- Catégorie : IA générative
- Catégorie : Benchmarking
- Catégorie : Évaluation de modèles
- Catégorie : Prompt engineering
- Catégorie : Développement d'applications
- Catégorie : Grand modèle de langage (LLM)
Détails à connaître

Ajouter à votre profil LinkedIn
juillet 2025
10 devoirs
Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées

Élaborez votre expertise du sujet
- Apprenez de nouveaux concepts auprès d'experts du secteur
- Acquérez une compréhension de base d'un sujet ou d'un outil
- Développez des compétences professionnelles avec des projets pratiques
- Obtenez un certificat professionnel partageable

Il y a 3 modules dans ce cours
Explorez les capacités essentielles des grands modèles de langage (LLM) dans ce module de base. Apprenez les quatre fonctions clés qui alimentent les performances des LLM, y compris le résumé et la traduction de contenu. Comprenez leurs avantages, leurs limites et leurs applications réelles dans tous les secteurs d'activité. Acquérir une expérience pratique avec une démo de résumé de texte et découvrir comment les LLMs transforment le contenu à travers les langues.
Inclus
5 vidéos1 lecture4 devoirs
Découvrez comment les LLM alimentent les applications interactives et analytiques dans ce module. Apprenez le rôle des chatbots et des assistants virtuels dans l'automatisation des conversations à travers les industries. Explorez l'analyse des sentiments pour interpréter les émotions et les commentaires des utilisateurs. Acquérir une expérience pratique avec des démonstrations telles que MultiPDF QA Retriever utilisant ChromaDB et LangChain, et la détection de sentiment en temps réel.
Inclus
4 vidéos3 devoirs
Découvrez comment évaluer et comparer les grands modèles de langage (LLM) dans ce module complet. Apprenez les étapes clés du benchmarking et les cadres largement utilisés tels que ROUGE, GLUE, SuperGLUE et BIG-bench. Comprendre le besoin d'évolution des benchmarks au fur et à mesure que les LLM deviennent plus avancés. Mettez la main à la pâte avec des démonstrations pour évaluer la performance, la précision et l'application dans le monde réel des modèles IA génératifs.
Inclus
9 vidéos3 devoirs
Obtenez un certificat professionnel
Ajoutez ce titre à votre profil LinkedIn, à votre curriculum vitae ou à votre CV. Partagez-le sur les médias sociaux et dans votre évaluation des performances.
Instructeur

Offert par
En savoir plus sur Apprentissage automatique
Statut : Essai gratuit
Statut : GratuitDeepLearning.AI
Statut : Essai gratuit
Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?





Ouvrez de nouvelles portes avec Coursera Plus
Accès illimité à 10,000+ cours de niveau international, projets pratiques et programmes de certification prêts à l'emploi - tous inclus dans votre abonnement.
Faites progresser votre carrière avec un diplôme en ligne
Obtenez un diplôme auprès d’universités de renommée mondiale - 100 % en ligne
Rejoignez plus de 3 400 entreprises mondiales qui ont choisi Coursera pour les affaires
Améliorez les compétences de vos employés pour exceller dans l’économie numérique
Foire Aux Questions
Les tests d'évaluation LLM sont des tests standardisés utilisés pour évaluer la performance, le raisonnement et la compréhension du langage des grands modèles de langage. Les exemples incluent ROUGE, GLUE, SuperGLUE et BIG-bench.
La création d'un benchmark implique la définition de tâches claires (par exemple, le résumé, l'assurance qualité), la collecte de divers ensembles de données, la sélection de mesures d'évaluation (comme F1 ou la précision) et la validation du benchmark par rapport à plusieurs LLM.
Les mesures courantes comprennent ROUGE pour le résumé, BLEU pour la traduction, la précision, le score F1 et la correspondance exacte pour les tâches d'assurance qualité, ainsi que des mesures émergentes spécifiques aux tâches pour les performances génératives.
Plus de questions
Aide financière disponible,


