机器学习:Python 中的自然语言处理(V2)
NLP:在 Python 中使用马尔可夫模型、NLTK、人工智能、深度学习、机器学习和数据科学
讲师:Lazy Programmer Inc.
双语IT资源独家Udemy付费课程,独家中英文字幕,配套资料齐全!
用不到1/10的价格,即可享受同样的高品质课程,且可以完全拥有,随时随地都可以任意观看和分享。
您将学到什么
- 如何使用 CountVectorizer、TF-IDF、word2vec 和 GloVe 将文本转换为向量
- 如何实现文档检索系统/搜索引擎/相似性搜索/向量相似性
- 概率模型、语言模型和马尔可夫模型(Transformers、BERT 和 GPT-3 的先决条件)
- 如何使用遗传算法和语言建模实现密码解密算法
- 如何实施垃圾邮件检测
- 如何实现情绪分析
- 如何实现文章旋转器
- 如何实现文本摘要
- 如何实现潜在语义索引
- 如何使用 LDA、NMF 和 SVD 实现主题建模
- 机器学习(朴素贝叶斯、逻辑回归、PCA、SVD、潜在狄利克雷分配)
- 深度学习(ANN、CNN、RNN、LSTM、GRU)(BERT 和 GPT-3 更重要的先决条件)
- 拥抱脸变形金刚(仅限 VIP)
- 如何使用 Python、Scikit-Learn、Tensorflow 等进行 NLP
- 文本预处理、标记化、停用词、词形还原和词干提取
- 词性 (POS) 标记和命名实体识别 (NER)
- 了解 OpenAI ChatGPT、GPT-4、DALL-E、Midjourney 和 Stable Diffusion 的重要基础
显示更多显示较少
探索相关主题
- 自然语言处理 (NLP)
- 数据科学
- 发展
要求
- 安装 Python,它是免费的!
- 良好的 Python 编程技能
- 可选:如果你想理解数学部分,线性代数和概率很有帮助
描述
有没有想过OpenAI ChatGPT、GPT-4、DALL-E、Midjourney和Stable Diffusion等 AI 技术究竟是如何工作的?在本课程中,您将学习这些突破性应用程序的基础知识。
大家好!
欢迎来到机器学习:Python 中的自然语言处理(版本 2)。
这是一门四合一的课程,内容涵盖:
1)向量模型与文本预处理方法
2)概率模型和马尔可夫模型
3)机器学习方法
4)深度学习和神经网络方法
在第 1 部分中,您将了解向量模型和文本预处理方法,了解向量在数据科学和人工智能中如此重要的原因。您将了解将文本转换为向量的各种技术,例如 CountVectorizer 和 TF-IDF,还将学习 word2vec 和 GloVe 等神经嵌入方法的基础知识。
然后,你将把学到的知识应用到各种任务中,例如:
- 文本分类
- 文档检索/搜索引擎
- 文本摘要
在此过程中,您还将学习重要的文本预处理步骤,例如标记化、词干提取和词形还原。
您将简要了解经典的 NLP 任务,例如词性标记。
在第 2 部分中,您将了解概率模型和马尔可夫模型,这是过去 100 年来整个数据科学和机器学习中最重要的模型之一。除了 NLP 之外,它还应用于许多领域,例如金融、生物信息学和强化学习。
在本课程中,您将了解此类概率模型如何以各种方式使用,例如:
- 构建文本分类器
- 文章旋转
- 文本生成(生成诗歌)
重要的是,这些方法是理解最新的Transformer(注意力)模型(例如BERT和GPT-3)如何工作的必要先决条件。具体来说,我们将了解与 BERT 和 GPT 的预训练目标相对应的 2 个重要任务。
在涵盖机器学习方法的第 3 部分中,您将了解更多经典的 NLP 任务,例如:
- 垃圾邮件检测
- 情绪分析
- 潜在语义分析(也称为潜在语义索引)
- 主题建模
本节将重点关注应用而不是理论,这意味着您不必花费大部分精力来了解各种 ML 算法的细节,而是专注于如何将它们应用于上述任务。
当然,你仍然需要了解这些算法,以便理解发生了什么。将使用以下算法:
- 朴素贝叶斯
- 逻辑回归
- 主成分分析 (PCA)/奇异值分解 (SVD)
- 潜在狄利克雷分配(LDA)
这些不仅仅是“任何”机器学习/人工智能算法,而是 NLP 中的主要算法,因此是任何 NLP 课程的重要组成部分。
在第 4 部分中,您将了解可用于解决 NLP 任务的现代神经网络架构,该部分涵盖深度学习方法。由于神经网络具有强大的功能和灵活性,因此可用于解决本课程中上述任何任务。
您将了解:
- 前馈人工神经网络 (ANN)
- 嵌入
- 卷积神经网络 (CNN)
- 循环神经网络 (RNN)
RNN 的研究将涉及 LSTM 和 GRU 等现代架构,这些架构已被谷歌、亚马逊、苹果、Facebook 等广泛用于语言翻译、语音识别和文本转语音等困难任务。
显然,由于最新的Transformers(如BERT和GPT-3)是深度神经网络的例子,因此本课程的这一部分是理解 Transformers 的必要先决条件。
独特功能
- 每行代码都有详细解释 – 如果您不同意,请随时给我发电子邮件
- 不会像其他课程那样浪费时间在键盘上“打字”——说实话,没有人能在 20 分钟内从头开始编写值得学习的代码
- 不惧怕大学水平的数学——获得其他课程遗漏的算法重要细节
感谢您的阅读,希望很快能见到您!
本课程适合哪些人:
- 任何想学习自然语言处理 (NLP) 的人
- 对人工智能、机器学习、深度学习或数据科学感兴趣的任何人
- 任何想要超越 Udemy 上典型的初学者课程的人
显示更多显示较少
如果你有能力,请务必支持课程的原创作者,这是他们应得的报酬!
本站收取的费用,仅用来维持网站正常运行的必要支出,从本站下载任何内容,说明你已经知晓并同意此条款。