Dieser Deep Learning-Kurs bietet eine umfassende Einführung in Aufmerksamkeitsmechanismen und Transformermodelle, die Grundlage moderner GenAI-Systeme. Beginnen Sie mit der Erforschung des Übergangs von traditionellen neuronalen Netzwerken zu aufmerksamkeitsbasierten Architekturen. Verstehen Sie, wie additive, multiplikative und Selbstaufmerksamkeit die Modellgenauigkeit in NLP- und Sehaufgaben verbessern. Tauchen Sie ein in die Mechanik der Selbstaufmerksamkeit und wie sie Modelle wie den Generativen vortrainierten Transformator (GPT) und BERT antreibt. Beherrschen Sie die Multi-Head-Attention und die Transformer-Komponenten und erkunden Sie deren Rolle bei der fortgeschrittenen Text- und Bilderzeugung. Um diesen Kurs erfolgreich zu absolvieren, sollten Sie ein grundlegendes Verständnis von neuronalen Netzwerken, Konzepten des Maschinellen Lernens und der Python-Programmierung haben. Am Ende dieses Kurses werden Sie in der Lage sein: - zu erklären, wie Aufmerksamkeitsmechanismen Deep-Learning-Modelle verbessern - Selbstaufmerksamkeit und Multi-Head-Attention zu implementieren und anzuwenden - die Transformer-Architektur und reale Anwendungsfälle zu verstehen - führende GenAI-Modelle für NLP und Bilderzeugung zu analysieren Ideal für KI-Entwickler, ML-Ingenieure und Datenwissenschaftler.


Aufmerksamkeitsmechanismen und Transformatormodelle Kurs
Dieser Kurs ist Teil von Spezialisierung für Generative AI-Modelle und Zertifizierung von Transformatorennetzen

Dozent: Priyanka Mehta
Bei enthalten
Empfohlene Erfahrung
Was Sie lernen werden
Anwendung der Selbstaufmerksamkeit und der Mehrkopfaufmerksamkeit in Deep-Learning-Modellen
Verstehen der Architektur von Transformern und ihrer wichtigsten Komponenten
Untersuchen Sie die Rolle der Aufmerksamkeit bei Modellen wie dem Generativen vortrainierten Transformator (GPT) und BERT
Analyse realer GenAI-Anwendungen in NLP und Bilderzeugung
Kompetenzen, die Sie erwerben
- Kategorie: Künstliche neuronale Netze
- Kategorie: Lernen übertragen
- Kategorie: Vision Transformer (ViT)
- Kategorie: Modellierung großer Sprachen
- Kategorie: Generative Modellarchitekturen
- Kategorie: Deep Learning
- Kategorie: Generative KI
- Kategorie: Verarbeitung natürlicher Sprache
- Kategorie: OpenAI
- Kategorie: ChatGPT
Wichtige Details

Zu Ihrem LinkedIn-Profil hinzufügen
7 Aufgaben
Erfahren Sie, wie Mitarbeiter führender Unternehmen gefragte Kompetenzen erwerben.

Erweitern Sie Ihre Fachkenntnisse
- Lernen Sie neue Konzepte von Branchenexperten
- Gewinnen Sie ein Grundverständnis bestimmter Themen oder Tools
- Erwerben Sie berufsrelevante Kompetenzen durch praktische Projekte
- Erwerben Sie ein Berufszertifikat zur Vorlage

In diesem Kurs gibt es 2 Module
Erforschen Sie die Leistungsfähigkeit von Aufmerksamkeitsmechanismen im modernen Deep Learning. Vergleichen Sie traditionelle neuronale Architekturen mit aufmerksamkeitsbasierten Modellen, um zu sehen, wie additive, multiplikative und Selbstaufmerksamkeit die Genauigkeit bei NLP- und Sehaufgaben boosten. Verstehen Sie den mathematischen Kern und den Fluss der Selbstaufmerksamkeit, den Motor hinter Transformer-Giganten wie GPT und BERT, und schaffen Sie eine solide Basis für die Entwicklung fortgeschrittener KI.
Das ist alles enthalten
10 Videos1 Lektüre3 Aufgaben
Beherrschen Sie in diesem fortgeschrittenen Modul Multi-Head-Attention und Transformermodelle. Erfahren Sie, wie Multi-Head-Attention das Kontextverständnis verbessert und führende Transformer-Architekturen unterstützt. Entdecken Sie Transformer-Komponenten, Workflows zur Text- und Bilderzeugung und Anwendungsfälle aus der Praxis mit Modellen wie GPT, BERT, LLaMa und DALL-E. Ideal für die Entwicklung von GenAI-gestützten Anwendungen.
Das ist alles enthalten
11 Videos4 Aufgaben
Erwerben Sie ein Karrierezertifikat.
Fügen Sie dieses Zeugnis Ihrem LinkedIn-Profil, Lebenslauf oder CV hinzu. Teilen Sie sie in Social Media und in Ihrer Leistungsbeurteilung.
Dozent

von
Mehr von Maschinelles Lernen entdecken
Status: Kostenloser Testzeitraum
Google Cloud
Status: Kostenloser Testzeitraum
Status: Kostenloser Testzeitraum
Warum entscheiden sich Menschen für Coursera für ihre Karriere?





Neue Karrieremöglichkeiten mit Coursera Plus
Unbegrenzter Zugang zu 10,000+ Weltklasse-Kursen, praktischen Projekten und berufsqualifizierenden Zertifikatsprogrammen - alles in Ihrem Abonnement enthalten
Bringen Sie Ihre Karriere mit einem Online-Abschluss voran.
Erwerben Sie einen Abschluss von erstklassigen Universitäten – 100 % online
Schließen Sie sich mehr als 3.400 Unternehmen in aller Welt an, die sich für Coursera for Business entschieden haben.
Schulen Sie Ihre Mitarbeiter*innen, um sich in der digitalen Wirtschaft zu behaupten.
Häufig gestellte Fragen
Der Aufmerksamkeitsmechanismus ermöglicht es Transformermodellen, sich auf relevante Teile von Eingabesequenzen zu konzentrieren und Beziehungen zwischen Token abzuwägen, um das Kontextverständnis und die Genauigkeit bei Aufgaben wie Übersetzung oder Texterstellung zu verbessern.
Ja, ChatGPT basiert auf der Transformer-Architektur, und zwar auf einer Variante des GPT-Modells (Generativer vortrainierter Transformer), das es ermöglicht, menschenähnliche Antworten zu erzeugen.
Der Vision Transformer (ViT) wendet die Selbstbeobachtung auf Bildfelder anstelle von Pixeln an, so dass das Modell räumliche Beziehungen und den globalen Kontext für eine genaue Klassifizierung und das Verständnis von Bildern erfassen kann.
Weitere Fragen
Finanzielle Unterstützung verfügbar,

