Dieser umfassende Kurs über Long Short-Term Memory (LSTM) vermittelt Ihnen die Fähigkeiten, fortgeschrittene Sequenzmodelle für die Vorhersage von Zeitreihen und die Verarbeitung natürlicher Sprache zu erstellen. Zu Beginn lernen Sie die Grundlagen rekurrenter neuronaler Netzwerke (RNNs) kennen und erfahren, wie LSTM das Problem des verschwindenden Gradienten löst. Tauchen Sie ein in die LSTM-Architektur - lernen Sie die Funktionen von Vergessens-, Eingabe- und Ausgabegattern kennen und erfahren Sie, wie sie den Speicher über die Zeit verwalten. Lernen Sie praktische Anwendungen in verschiedenen Branchen kennen, darunter Finanzen, Gesundheitswesen und KI-gesteuerte Chatsysteme. Sammeln Sie praktische Erfahrungen durch geführte Demos, die Sie durch reale LSTM-Implementierungen führen. Um diesen Kurs erfolgreich zu absolvieren, sollten Sie über ein grundlegendes Verständnis von Python, Grundlagen des Maschinellen Lernens und Architekturen neuronaler Netze verfügen.


Einführung in das Training des langen Kurzzeitgedächtnisses (LSTM)

Dozent: Priyanka Mehta
Bei enthalten
Empfohlene Erfahrung
Was Sie lernen werden
Verstehen, wie LSTM-Netzwerke die Grenzen des Rekurrenten neuronalen Netzes (RNN) bei der Modellierung von Sequenzen überwinden
Lernen Sie die Struktur und Funktion von LSTM-Gattern: Vergessen, Eingabe und Ausgabe
Anwendung von LSTM auf reale Aufgaben wie Zeitreihenprognosen und NLP
Erstellung und Bewertung von LSTM-Modellen durch schrittweise praktische Demos
Kompetenzen, die Sie erwerben
- Kategorie: Deep Learning
- Kategorie: Künstliche neuronale Netze
- Kategorie: Vorverarbeitung der Daten
- Kategorie: PyTorch (Bibliothek für Maschinelles Lernen)
- Kategorie: Zeitreihenanalyse und Vorhersage
- Kategorie: Rekurrente Neuronale Netze (RNNs)
- Kategorie: Tensorflow
- Kategorie: Angewandtes maschinelles Lernen
- Kategorie: Verarbeitung natürlicher Sprache
- Kategorie: Keras (Bibliothek für Neuronale Netze)
Wichtige Details

Zu Ihrem LinkedIn-Profil hinzufügen
Juni 2025
3 Aufgaben
Erfahren Sie, wie Mitarbeiter führender Unternehmen gefragte Kompetenzen erwerben.

In diesem Kurs gibt es 1 Modul
Beherrschen Sie in diesem praxisnahen Modul die Grundlagen von Long Short-Term Memory (LSTM) Netzwerken. Beginnen Sie mit den Grundlagen von RNNs und verstehen Sie, wie LSTM deren Grenzen überwindet. Erkunden Sie die LSTM-Architektur, einschließlich Vergessen, Eingabe- und Ausgabegatter. Lernen Sie reale Anwendungen in Zeitreihen, NLP und mehr durch interaktive Demos kennen, die die praktische LSTM-Implementierung verstärken.
Das ist alles enthalten
8 Videos1 Lektüre3 Aufgaben
Dozent

von
Mehr von Maschinelles Lernen entdecken
Status: Kostenloser Testzeitraum
Status: Kostenloser Testzeitraum
Status: Kostenloser Testzeitraum
Status: Kostenloser Testzeitraum
Warum entscheiden sich Menschen für Coursera für ihre Karriere?





Neue Karrieremöglichkeiten mit Coursera Plus
Unbegrenzter Zugang zu 10,000+ Weltklasse-Kursen, praktischen Projekten und berufsqualifizierenden Zertifikatsprogrammen - alles in Ihrem Abonnement enthalten
Bringen Sie Ihre Karriere mit einem Online-Abschluss voran.
Erwerben Sie einen Abschluss von erstklassigen Universitäten – 100 % online
Schließen Sie sich mehr als 3.400 Unternehmen in aller Welt an, die sich für Coursera for Business entschieden haben.
Schulen Sie Ihre Mitarbeiter*innen, um sich in der digitalen Wirtschaft zu behaupten.
Häufig gestellte Fragen
LSTM (Long Short-Term Memory) ist eine Art rekurrentes neuronales Netz (RNN), das für die Erfassung von Abhängigkeiten in großen Bereichen sequenzieller Daten entwickelt wurde. Es überwindet die Beschränkungen herkömmlicher RNNs, indem es Gate-Mechanismen zum Behalten oder Vergessen von Informationen verwendet.
Die wichtigsten Gatter in einem LSTM sind das Forget-Gate, das Input-Gate, das Output-Gate und manchmal ein Cell-Gate (das jedoch normalerweise zur Input-Gate-Logik gezählt wird). Diese Gatter regulieren den Informationsfluss und ermöglichen dem Modell eine effiziente Speicherverwaltung.
Das LSTM-Verfahren verwendet Gated Cells, um den Informationsfluss über die Zeit zu steuern, und ist daher ideal für Aufgaben wie die Vorhersage von Zeitreihen, Sprachmodelle und Spracherkennung, bei denen der Kontext vergangener Eingaben wichtig ist.
Weitere Fragen
Finanzielle Unterstützung verfügbar,

