自然语言处理:使用 Python 中的 Transformer 进行 NLP
使用 Transformer 学习下一代 NLP,用于情绪分析、问答、相似性搜索、NER 等
讲师:James Briggs
双语IT资源独家Udemy付费课程,独家中英文字幕,配套资料齐全!
用不到1/10的价格,即可享受同样的高品质课程,且可以完全拥有,随时随地都可以任意观看和分享。
您将学到什么
- 使用变换器模型的行业标准 NLP
- 构建全栈问答转换器模型
- 使用 PyTorch 和 TensorFlow 中的 transformers 模型执行情绪分析
- Elasticsearch 和 Facebook AI 相似性搜索 (FAISS) 等高级搜索技术
- 为专门的用例创建微调的变压器模型
- 使用 ROUGE 等高级指标衡量语言模型的性能
- BM25 或密集通道检索器 (DPR) 等向量构建技术
- NLP 最新发展概述
- 了解变压器的注意事项和其他关键部件
- 了解 BERT 等关键 Transformer 模型
- 为 NLP 预处理文本数据
- 使用 spaCy 和 transformers 进行命名实体识别 (NER)
- 微调语言分类模型
探索相关主题
- 自然语言处理 (NLP)
- 数据科学
- 发展
要求
- Python 知识
- 具有数据科学经验者优先
- 具有 NLP 经验者优先
描述
Transformer 模型是现代 NLP 中事实上的标准。它们已经证明自己是语言领域最具表现力、最强大的模型,并且一次又一次地击败了所有主要的语言基准测试。
在本课程中,我们涵盖了使用转换器模型(如 Google AI 的BERT或 Facebook AI 的DPR )构建尖端性能 NLP 应用程序所需的一切。
我们涵盖了几个关键的 NLP 框架,包括:
-
HuggingFace 的变形金刚
-
TensorFlow 2
-
PyTorch
-
spaCy
-
神经科学知识库
-
天赋
并学习如何将变换器应用于一些最流行的 NLP 用例:
-
语言分类/情感分析
-
命名实体识别 (NER)
-
问答
-
相似性/比较学习
在每个用例中,我们都通过各种示例来确保变压器的重要性、使用方法和原因。除了这些部分,我们还研究了两个完整的 NLP 项目,一个用于金融 Reddit 数据的情绪分析,另一个涵盖了一个成熟的开放域问答应用程序。
所有这些都得到了其他几个部分的支持,这些部分鼓励我们学习如何更好地设计、实施和衡量模型的性能,例如:
-
NLP 的历史以及 transformers 的来源
-
NLP 的常见预处理技术
-
Transformer 背后的理论
-
如何微调变压器
我们涵盖了所有这些内容以及更多内容,我期待在课程中见到您!
本课程适合哪些人:
- 对 NLP 感兴趣的有志数据科学家和 ML 工程师
- 希望提升技能的从业者
- 希望实施 NLP 解决方案的开发人员
- 数据科学家
- 机器学习工程师
- Python 开发人员
如果你有能力,请务必支持课程的原创作者,这是他们应得的报酬!
本站收取的费用,仅用来维持网站正常运行的必要支出,从本站下载任何内容,说明你已经知晓并同意此条款。