本课程实际介绍了如何将基于 transformer 的模型用于自然语言处理 (NLP) 应用。您将学习使用基于编码器的架构(如来自变换器的双向编码器表示(BERT))构建和训练用于文本分类的模型,并探索位置编码、单词嵌入和注意机制等核心概念。 课程内容包括多头注意、自我注意以及使用 GPT 进行因果语言建模,以完成文本生成和翻译等任务。您将获得在 PyTorch 中实现 transformer model 的实践经验,包括预训练策略,如屏蔽语言建模 (MLM) 和下一句预测 (NSP)。 通过指导下的实验,您将把编码器和解码器模型应用到实际场景中。本课程专为对 Generative AI 工程感兴趣的学习者设计,需要事先了解 Python、PyTorch 和机器学习知识。立即报名,利用 Transformer 培养您的 NLP 技能!
通过 Coursera Plus 提高技能,仅需 239 美元/年(原价 399 美元)。立即节省

用 Transformer 建立生成式 AI 语言模型
本课程是多个项目的一部分。



位教师:Joseph Santarcangelo另外 2 个
25,480 人已注册
包含在 中
您将学到什么
解释注意机制在获取文本中上下文关系的 transformer 模型中的作用
说明 GPT 等基于解码器的模型和 BERT 等基于编码器的模型在语言建模方法上的区别
使用 PyTorch 实现 Transformer model 的关键组件,包括位置编码、注意机制和掩码
使用 PyTorch 和 Hugging Face 工具,在文本分类和语言翻译等实际 NLP 任务中应用基于 Transformer 的模型
您将获得的技能
- 类别:Text Mining
- 类别:Transfer Learning
- 类别:Embeddings
- 类别:Natural Language Processing
- 类别:Applied Machine Learning
- 类别:Performance Tuning
- 类别:Large Language Modeling
您将学习的工具
- 类别:Generative AI
- 类别:PyTorch (Machine Learning Library)
要了解的详细信息

添加到您的领英档案
6 项作业
积累特定领域的专业知识
- 向行业专家学习新概念
- 获得对主题或工具的基础理解
- 通过实践项目培养工作相关技能
- 获得可共享的职业证书

该课程共有2个模块
获得职业证书
将此证书添加到您的 LinkedIn 个人资料、简历或履历中。在社交媒体和绩效考核中分享。
位教师

提供方

人们为什么选择 Coursera 来帮助自己实现职业发展

Felipe M.

Jennifer J.

Larry W.

Chaitanya A.
学生评论
- 5 stars
73.42%
- 4 stars
13.28%
- 3 stars
4.89%
- 2 stars
2.09%
- 1 star
6.29%
显示 3/142 个
已于 Nov 16, 2024审阅
need assistance from humans, which seems lacking though a coach can give guidance but not to the extent of human touch.
已于 Dec 29, 2024审阅
This course gives me a wide picture of what transformers can be.
已于 Sep 1, 2025审阅
I loved this course. It is very informative and has a lot of examples. It will take some time to master all this information.

