In diesem Kurs werden die Konzepte der Interpretierbarkeit und Erklärbarkeit in Anwendungen des maschinellen Lernens vorgestellt. Der Lernende wird den Unterschied zwischen globalen, lokalen, modellagnostischen und modellspezifischen Erklärungen verstehen. Moderne Erklärungsmethoden wie Permutation Feature Importance (PFI), Local Interpretable Model-agnostic Explanations (LIME) und SHapley Additive exPlanation (SHAP) werden erklärt und bei der Klassifizierung von Zeitreihen angewendet. Anschließend werden modellspezifische Erklärungen wie Class-Activation Mapping (CAM) und Gradient-Weighted CAM erklärt und umgesetzt. Die Lernenden werden axiomatische Attributionen verstehen und warum sie wichtig sind. Schließlich werden Aufmerksamkeitsmechanismen nach Recurrent Layers eingebaut und die Aufmerksamkeitsgewichte werden visualisiert, um lokale Erklärungen des Modells zu erstellen.


Erklärbare Deep-Learning-Modelle für das Gesundheitswesen - CDSS 3
Dieser Kurs ist Teil von Spezialisierung für Informierte klinische Entscheidungsfindung mit Deep Learning

Dozent: Fani Deligianni
1.823 bereits angemeldet
Bei enthalten
(15 Bewertungen)
Empfohlene Erfahrung
Was Sie lernen werden
Globale Erklärungsmethoden für die Klassifizierung von Zeitreihen programmieren
Programmieren Sie lokale Erklärungsmethoden für Deep Learning wie CAM und GRAD-CAM
Verstehen Sie axiomatische Zuschreibungen für Deep Learning Netzwerke
Integrieren Sie Aufmerksamkeit in rekurrente neuronale Netze und visualisieren Sie die Aufmerksamkeitsgewichte
Kompetenzen, die Sie erwerben
- Kategorie: Angewandtes maschinelles Lernen
- Kategorie: Rekurrente Neuronale Netze (RNNs)
- Kategorie: Faltungsneuronale Netzwerke
- Kategorie: Zeitreihenanalyse und Vorhersage
- Kategorie: Künstliche neuronale Netze
- Kategorie: Elektrokardiographie
- Kategorie: Modell Bewertung
- Kategorie: Maschinelles Lernen
- Kategorie: Verantwortungsvolle KI
- Kategorie: Deep Learning
- Kategorie: Gesundheitswesen 5.0
- Kategorie: Auto-Kodierer
Wichtige Details

Zu Ihrem LinkedIn-Profil hinzufügen
5 Aufgaben
Erfahren Sie, wie Mitarbeiter führender Unternehmen gefragte Kompetenzen erwerben.

Erweitern Sie Ihre Fachkenntnisse
- Lernen Sie neue Konzepte von Branchenexperten
- Gewinnen Sie ein Grundverständnis bestimmter Themen oder Tools
- Erwerben Sie berufsrelevante Kompetenzen durch praktische Projekte
- Erwerben Sie ein Berufszertifikat zur Vorlage

In diesem Kurs gibt es 4 Module
Deep Learning-Modelle sind komplex und ihre Entscheidungen sind schwer zu verstehen. Erklärungsmethoden zielen darauf ab, die Entscheidungen von Deep Learning zu erhellen und das Vertrauen zu stärken, Fehler zu vermeiden und eine ethische Nutzung von KI sicherzustellen. Erklärungen können als global, lokal, modellagnostisch und modellspezifisch kategorisiert werden. Die Wichtigkeit von Permutationsmerkmalen ist eine globale, modellagnostische Erklärungsmethode, die Informationen darüber liefert, welche Input-Variablen stärker mit dem Output verbunden sind.
Das ist alles enthalten
6 Videos8 Lektüren1 Aufgabe1 Diskussionsthema5 Unbewertete Labore
Lokale Erklärungsmethoden liefern Erklärungen dafür, wie das Modell zu einer bestimmten Entscheidung gelangt. LIME approximiert das Modell lokal mit einem einfacheren, interpretierbaren Modell. SHAP baut darauf auf und ist auch auf die Multikollinearität der eingegebenen Merkmale ausgerichtet. Sowohl LIME als auch SHAP sind lokale, modell-agnostische Erklärungen. CAM hingegen ist eine klassendiskriminierende Visualisierungstechnik, die speziell für lokale Erklärungen in tiefen neuronalen Netzwerken entwickelt wurde.
Das ist alles enthalten
5 Videos7 Lektüren1 Aufgabe1 Diskussionsthema7 Unbewertete Labore
GRAD-CAM ist eine Erweiterung von CAM, die auf eine breitere Anwendung der Architektur in tiefen neuronalen Netzen abzielt. Obwohl es eine der beliebtesten Methoden zur Erklärung von Entscheidungen in tiefen neuronalen Netzen ist, verstößt es gegen wichtige axiomatische Eigenschaften wie Sensitivität und Vollständigkeit. Integrierte Gradienten sind eine axiomatische Methode zur Attribution, die diese Lücke schließen soll.
Das ist alles enthalten
4 Videos6 Lektüren1 Aufgabe1 Diskussionsthema7 Unbewertete Labore
Aufmerksamkeit in tiefen neuronalen Netzwerken ahmt die menschliche Aufmerksamkeit nach, die Rechenressourcen einem kleinen Bereich von sensorischen Eingaben zuweist, um spezifische Informationen mit begrenzter Verarbeitungsleistung zu verarbeiten. In dieser Woche erörtern wir, wie man Aufmerksamkeit in rekurrente neuronale Netze und Autoencoder einbezieht. Außerdem visualisieren wir Aufmerksamkeitsgewichte, um eine Art inhärente Erklärung für den Entscheidungsfindungsprozess zu liefern.
Das ist alles enthalten
3 Videos3 Lektüren2 Aufgaben1 Diskussionsthema4 Unbewertete Labore
Erwerben Sie ein Karrierezertifikat.
Fügen Sie dieses Zeugnis Ihrem LinkedIn-Profil, Lebenslauf oder CV hinzu. Teilen Sie sie in Social Media und in Ihrer Leistungsbeurteilung.
Dozent

Mehr von Maschinelles Lernen entdecken
Status: Kostenloser TestzeitraumDuke University
Status: Kostenloser TestzeitraumDuke University
Warum entscheiden sich Menschen für Coursera für ihre Karriere?





Neue Karrieremöglichkeiten mit Coursera Plus
Unbegrenzter Zugang zu 10,000+ Weltklasse-Kursen, praktischen Projekten und berufsqualifizierenden Zertifikatsprogrammen - alles in Ihrem Abonnement enthalten
Bringen Sie Ihre Karriere mit einem Online-Abschluss voran.
Erwerben Sie einen Abschluss von erstklassigen Universitäten – 100 % online
Schließen Sie sich mehr als 3.400 Unternehmen in aller Welt an, die sich für Coursera for Business entschieden haben.
Schulen Sie Ihre Mitarbeiter*innen, um sich in der digitalen Wirtschaft zu behaupten.
Häufig gestellte Fragen
Um Zugang zu den Kursmaterialien und Aufgaben zu erhalten und um ein Zertifikat zu erwerben, müssen Sie die Zertifikatserfahrung erwerben, wenn Sie sich für einen Kurs anmelden. Sie können stattdessen eine kostenlose Testversion ausprobieren oder finanzielle Unterstützung beantragen. Der Kurs kann stattdessen die Option "Vollständiger Kurs, kein Zertifikat" anbieten. Mit dieser Option können Sie alle Kursmaterialien einsehen, die erforderlichen Bewertungen abgeben und eine Abschlussnote erhalten. Dies bedeutet auch, dass Sie kein Zertifikat erwerben können.
Wenn Sie sich für den Kurs einschreiben, erhalten Sie Zugang zu allen Kursen der Spezialisierung, und Sie erhalten ein Zertifikat, wenn Sie die Arbeit abgeschlossen haben. Ihr elektronisches Zertifikat wird Ihrer Seite "Leistungen" hinzugefügt - von dort aus können Sie Ihr Zertifikat ausdrucken oder Ihrem LinkedIn-Profil hinzufügen.
Ja. Für ausgewählte Lernprogramme können Sie eine finanzielle Unterstützung oder ein Stipendium beantragen, wenn Sie die Anmeldungsgebühr nicht aufbringen können. Wenn für das von Ihnen gewählte Lernprogramm eine finanzielle Unterstützung oder ein Stipendium verfügbar ist, finden Sie auf der Beschreibungsseite einen Link zur Beantragung.
Weitere Fragen
Finanzielle Unterstützung verfügbar,



