Ce cours présente les concepts d'interprétabilité et d'explicabilité dans les applications d'apprentissage automatique. L'apprenant comprendra la différence entre les explications globales, locales, agnostiques et spécifiques au modèle. Les méthodes d'explicabilité de pointe telles que Permutation Feature Importance (PFI), Local Interpretable Model-agnostic Explanations (LIME) et SHapley Additive exPlanation (SHAP) sont expliquées et appliquées à la classification de séries temporelles. Ensuite, les explications spécifiques au modèle, telles que la cartographie de l'activité des classes (CAM) et la CAM pondérée par le gradient, sont expliquées et mises en œuvre. Les apprenants comprendront les attributions axiomatiques et pourquoi elles sont importantes. Enfin, les mécanismes d'attention seront incorporés après les couches récurrentes et les poids d'attention seront visualisés pour produire des explications locales du modèle.

Débloquez l'accès à plus de 10 000 cours avec Coursera Plus. Essai gratuit de 7 jours.


Modèles d'apprentissage profond explicables pour les soins de santé - CDSS 3
Ce cours fait partie de Spécialisation Prise de décision clinique éclairée grâce à l'apprentissage profond

Instructeur : Fani Deligianni
1 823 déjà inscrits
Inclus avec
(15 avis)
Expérience recommandée
Ce que vous apprendrez
Méthodes d'explicabilité globale des programmes dans la classification des séries temporelles
Programmer des méthodes d'explicabilité locale pour l'apprentissage profond telles que CAM et GRAD-CAM
Comprendre les attributions axiomatiques pour les réseaux d'apprentissage profond
Incorporer l'attention dans les réseaux neuronaux récurrents et visualiser les poids d'attention
Compétences que vous acquerrez
- Catégorie : Traitement des données
- Catégorie : Algorithmes d'apprentissage automatique
- Catégorie : Apprentissage automatique appliqué
- Catégorie : Éthique des soins de santé
- Catégorie : Analyse des séries temporelles et prévisions
- Catégorie : Apprentissage automatique
- Catégorie : Réseaux neuronaux artificiels
- Catégorie : Analyse d'images
- Catégorie : IA responsable
- Catégorie : Deep learning
Détails à connaître

Ajouter à votre profil LinkedIn
5 devoirs
Découvrez comment les employés des entreprises prestigieuses maîtrisent des compétences recherchées

Élaborez votre expertise du sujet
- Apprenez de nouveaux concepts auprès d'experts du secteur
- Acquérez une compréhension de base d'un sujet ou d'un outil
- Développez des compétences professionnelles avec des projets pratiques
- Obtenez un certificat professionnel partageable

Il y a 4 modules dans ce cours
Les modèles de Deep learning sont complexes et il est difficile de comprendre leurs décisions. Les méthodes d'explicabilité visent à faire la lumière sur les décisions du Deep learning et à renforcer la confiance, à éviter les erreurs et à garantir une utilisation éthique de l'IA. Les explications peuvent être catégorisées comme globales, locales, agnostiques par rapport au modèle et spécifiques au modèle. L'importance des caractéristiques de permutation est une méthode d'explicabilité globale, agnostique au modèle, qui fournit des informations par rapport aux variables d'entrée qui sont plus liées à la sortie.
Inclus
6 vidéos8 lectures1 devoir1 sujet de discussion5 laboratoires non notés
Les méthodes d'explicabilité locale fournissent des explications sur la manière dont le modèle aboutit à une décision spécifique. LIME approxime le modèle localement avec un modèle plus simple et plus facile à interpréter. SHAP développe ce modèle et est également conçu pour traiter la multi-colinéarité des caractéristiques d'entrée. LIME et SHAP sont tous deux des explications locales, indépendantes du modèle. D'autre part, CAM est une technique de visualisation discriminante par classe, spécifiquement conçue pour fournir des explications locales dans les réseaux de neurones profonds.
Inclus
5 vidéos7 lectures1 devoir1 sujet de discussion7 laboratoires non notés
GRAD-CAM est une extension de CAM, qui vise une application plus large de l'architecture dans les réseaux de neurones profonds. Bien qu'il s'agisse de l'une des méthodes les plus populaires pour expliquer les décisions des réseaux neurones profonds, elle viole des propriétés axiomatiques clés, telles que la sensibilité et l'exhaustivité. Les gradients intégrés sont une méthode d'attribution axiomatique qui vise à combler cette lacune.
Inclus
4 vidéos6 lectures1 devoir1 sujet de discussion7 laboratoires non notés
L'attention dans les réseaux de neurones profonds imite l'attention humaine qui alloue des ressources informatiques à une petite gamme d'entrées sensorielles afin de traiter des informations spécifiques avec une puissance de traitement limitée. Dans cette semaine, nous discutons de la manière d'incorporer l'attention dans les Réseaux de neurones récurrents (RNN) et les autoencodeurs. En outre, nous visualisons les poids de l'attention afin de fournir une forme d'explication inhérente au processus de prise de décision.
Inclus
3 vidéos3 lectures2 devoirs1 sujet de discussion4 laboratoires non notés
Obtenez un certificat professionnel
Ajoutez ce titre à votre profil LinkedIn, à votre curriculum vitae ou à votre CV. Partagez-le sur les médias sociaux et dans votre évaluation des performances.
Instructeur

Offert par
En savoir plus sur Apprentissage automatique
Statut : Essai gratuitDuke University
Statut : Essai gratuitDuke University
Pour quelles raisons les étudiants sur Coursera nous choisissent-ils pour leur carrière ?





Ouvrez de nouvelles portes avec Coursera Plus
Accès illimité à 10,000+ cours de niveau international, projets pratiques et programmes de certification prêts à l'emploi - tous inclus dans votre abonnement.
Faites progresser votre carrière avec un diplôme en ligne
Obtenez un diplôme auprès d’universités de renommée mondiale - 100 % en ligne
Rejoignez plus de 3 400 entreprises mondiales qui ont choisi Coursera pour les affaires
Améliorez les compétences de vos employés pour exceller dans l’économie numérique
Foire Aux Questions
Pour accéder aux supports de cours, aux devoirs et pour obtenir un certificat, vous devez acheter l'expérience de certificat lorsque vous vous inscrivez à un cours. Vous pouvez essayer un essai gratuit ou demander une aide financière. Le cours peut proposer l'option "Cours complet, pas de certificat". Cette option vous permet de consulter tous les supports de cours, de soumettre les évaluations requises et d'obtenir une note finale. Cela signifie également que vous ne pourrez pas acheter un certificat d'expérience.
Lorsque vous vous inscrivez au cours, vous avez accès à tous les cours de la spécialisation et vous obtenez un certificat lorsque vous terminez le travail. Votre certificat électronique sera ajouté à votre page Réalisations - de là, vous pouvez imprimer votre certificat ou l'ajouter à votre profil LinkedIn.
Oui, pour certains programmes de formation, vous pouvez demander une aide financière ou une bourse si vous n'avez pas les moyens de payer les frais d'inscription. Si une aide financière ou une bourse est disponible pour votre programme de formation, vous trouverez un lien de demande sur la page de description.
Plus de questions
Aide financière disponible,



