本课程实际介绍了如何将基于 transformer 的模型用于自然语言处理 (NLP) 应用。您将学习使用基于编码器的架构(如来自变换器的双向编码器表示(BERT))构建和训练用于文本分类的模型,并探索位置编码、单词嵌入和注意机制等核心概念。 课程内容包括多头注意、自我注意以及使用 GPT 进行因果语言建模,以完成文本生成和翻译等任务。您将获得在 PyTorch 中实现 transformer model 的实践经验,包括预训练策略,如屏蔽语言建模 (MLM) 和下一句预测 (NSP)。 通过指导下的实验,您将把编码器和解码器模型应用到实际场景中。本课程专为对 Generative AI 工程感兴趣的学习者设计,需要事先了解 Python、PyTorch 和机器学习知识。立即报名,利用 Transformer 培养您的 NLP 技能!
通过 Coursera Plus 提高技能,仅需 239 美元/年(原价 399 美元)。立即节省

您将学到什么
解释注意机制在获取文本中上下文关系的 transformer 模型中的作用
说明 GPT 等基于解码器的模型和 BERT 等基于编码器的模型在语言建模方法上的区别
使用 PyTorch 实现 Transformer model 的关键组件,包括位置编码、注意机制和掩码
使用 PyTorch 和 Hugging Face 工具,在文本分类和语言翻译等实际 NLP 任务中应用基于 Transformer 的模型
您将获得的技能
要了解的详细信息

添加到您的领英档案
6 项作业
了解顶级公司的员工如何掌握热门技能

积累特定领域的专业知识
- 向行业专家学习新概念
- 获得对主题或工具的基础理解
- 通过实践项目培养工作相关技能
- 获得可共享的职业证书

该课程共有2个模块
获得职业证书
将此证书添加到您的 LinkedIn 个人资料、简历或履历中。在社交媒体和绩效考核中分享。
提供方
从 机器学习 浏览更多内容

University of Glasgow

Alberta Machine Intelligence Institute
人们为什么选择 Coursera 来帮助自己实现职业发展

Felipe M.

Jennifer J.

Larry W.

Chaitanya A.
学生评论
- 5 stars
73.94%
- 4 stars
13.38%
- 3 stars
4.92%
- 2 stars
2.11%
- 1 star
5.63%
显示 3/140 个
已于 Jan 17, 2025审阅
Exceptional course and all the labs are industry related
已于 Dec 29, 2024审阅
This course gives me a wide picture of what transformers can be.
已于 Oct 10, 2024审阅
Once again, great content and not that great documentation (printable cheatsheets, no slides, etc). Documentation is essential to review a course content in the future. Alas!








