具有 LLM、Prompt、RAG、Vector DB 的生成式 AI 架构
使用 Prompt Engineering、RAG、Fine-Tuning 和 Vector DBs 设计并集成 AI 驱动的 S/LLM 到企业应用程序中
讲师:Mehmet Ozkaya
双语IT资源独家Udemy付费课程,独家中英文字幕,配套资料齐全!
用不到1/10的价格,即可享受同样的高品质课程,且可以完全拥有,随时随地都可以任意观看和分享。
您将学到什么
- 生成式 AI 模型架构(生成式 AI 模型的类型)
- Transformer 架构:注意力就是一切
- 大型语言模型 (LLM) 架构
- 文本生成、摘要、问答、分类、情感分析、嵌入语义搜索
- 使用 ChatGPT 生成文本:了解 LLM 的功能和局限性(实践)
- 大型语言模型 (LLM) 中的函数调用和结构化输出
- LLM 提供商:OpenAI、Meta AI、Anthropic、Hugging Face、Microsoft、Google 和 Mistral AI
- LLM 模型:OpenAI ChatGPT、Meta Llama、Anthropic Claude、Google Gemini、Mistral Mixral、xAI Grok
- SLM 模型:OpenAI ChatGPT 4o mini、Meta Llama 3.2 mini、Google Gemma、Microsoft Phi 3.5
- 如何选择 LLM 模型:质量、速度、价格、延迟和上下文窗口
- 将不同的 LLM 与聊天 UI 进行交互:ChatGPT、LLama、Mixtral、Phi3
- 使用 Ollama 安装和运行 Llama 和 Gemma 模型
- 利用 AI 驱动的 LLM 功能实现企业应用程序现代化
- 利用人工智能驱动的 LLM 功能设计“EShop 支持应用程序”
- 高级提示技巧:零次提示、一次性提示、少量提示、COT
- 在 EShop 支持应用程序中设计带有问答聊天和 RAG 的票证详细信息页面的高级提示
- RAG 架构:使用嵌入和向量搜索进行提取
- 检索增强生成 (RAG) 的 E2E 工作流程 – RAG 工作流程
- 使用 OpenAI Playground 为 EShop 客户支持提供端到端 RAG 示例
- 微调方法:完整、参数高效微调 (PEFT)、LoRA、迁移
- 使用 OpenAI Playground 对 EShop 客户支持进行 LLM 端到端微调
- 选择正确的优化——快速工程、RAG 和微调
- 使用 RAG 进行矢量数据库和语义搜索
- 探索向量嵌入模型:OpenAI – text-embedding-3-small、Ollama – all-minilm
- 探索矢量数据库:Pinecone、Chroma、Weaviate、Qdrant、Milvus、PgVector、Redis
- 在微服务架构中使用 LLM 和 VectorDB 作为云原生支持服务
- 通过 LLM、矢量数据库和语义搜索设计 EShop 支持
- 使用 Azure 云 AI 服务设计 EShop 支持:Azure OpenAI、Azure AI Search
探索相关主题
- 生成式人工智能 (GenAI)
- 软件工程
- 发展
要求
- 软件架构基础
描述
在本课程中,您将学习如何使用 Prompt Engineering、RAG、Fine-tuning 和 Vector DB 将AI 驱动的 S/LLM 集成到EShop 支持企业应用程序中来设计生成式 AI 架构。
我们将设计包含以下组件的生成式 AI 架构;
-
小型和大型语言模型 (S/LLM)
-
及时工程
-
检索增强生成 (RAG)
-
微调
-
矢量数据库
我们从基础知识开始,逐步 深入每个主题。我们还将遵循LLM Augmentation Flow,这是一个强大的框架,可在 Prompt Engineering、RAG 和 Fine-Tuning 之后增强 LLM 结果。
大型语言模型(LLM)模块;
-
大型语言模型 (LLM) 如何工作?
-
LLM 的功能:文本生成、摘要、问答、分类、情感分析、嵌入语义搜索、代码生成
-
使用 ChatGPT 生成文本:了解 LLM 的功能和局限性(实践)
-
大型语言模型 (LLM) 中的函数调用和结构化输出
-
LLM 模型:OpenAI ChatGPT、Meta Llama、Anthropic Claude、Google Gemini、Mistral Mixral、xAI Grok
-
SLM 模型:OpenAI ChatGPT 4o mini、Meta Llama 3.2 mini、Google Gemma、Microsoft Phi 3.5
-
将不同的 LLM 与聊天 UI 进行交互:ChatGPT、LLama、Mixtral、Phi3
-
通过编码与 OpenAI 聊天完成端点进行交互
-
安装并运行 Llama 和 Gemma 模型 使用 Ollama 在本地运行 LLM
-
利用 AI 驱动的 LLM 功能对 EShop 支持企业应用程序进行现代化和设计
提示工程模块;
-
设计有效提示的步骤:迭代、评估和模板化
-
高级提示技巧:零次提示、一次性提示、少量提示、思路链提示、指导提示和基于角色的提示
-
设计用于 EShop 支持的高级提示 – 分类、情绪分析、摘要、问答聊天和响应文本生成
-
在 EShop 支持应用程序中设计带有问答聊天和 RAG 的票证详细信息页面的高级提示
检索增强生成 (RAG) 模块;
-
RAG 架构第 1 部分:使用嵌入和向量搜索进行提取
-
RAG 架构第 2 部分:使用重新排序和上下文查询提示进行检索
-
RAG 架构第 3 部分:使用生成器和输出进行生成
-
检索增强生成 (RAG) 的 E2E 工作流程 – RAG 工作流程
-
使用 RAG 设计 EShop 客户支持
-
使用 OpenAI Playground 为 EShop 客户支持提供端到端 RAG 示例
微调模块;
-
微调工作流程
-
微调方法:完整、参数高效微调 (PEFT)、LoRA、迁移
-
使用微调设计 EShop 客户支持
-
使用 OpenAI Playground 对 EShop 客户支持进行 LLM 端到端微调
此外,我们将讨论
-
选择正确的优化——快速工程、RAG 和微调
使用 RAG 模块进行矢量数据库和语义搜索
-
什么是向量、向量嵌入和向量数据库?
-
探索向量嵌入模型:OpenAI – text-embedding-3-small、Ollama – all-minilm
-
语义和相似性搜索:余弦相似度、欧几里得距离
-
矢量数据库的工作原理:矢量创建、索引、搜索
-
向量搜索算法:kNN、ANN 和 Disk-ANN
-
探索矢量数据库:Pinecone、Chroma、Weaviate、Qdrant、Milvus、PgVector、Redis
最后,我们将使用 LLM 和矢量数据库设计 EShopSupport 架构
-
在微服务架构中使用 LLM 和 VectorDB 作为云原生支持服务
-
通过 LLM、矢量数据库和语义搜索设计 EShop 支持
-
Azure 云 AI 服务:Azure OpenAI、Azure AI 搜索
-
使用 Azure 云 AI 服务设计 EShop 支持:Azure OpenAI、Azure AI Search
本课程不仅仅是学习生成式人工智能,它深入探讨 如何通过将 LLM 架构集成到企业应用程序中来设计高级人工智能解决方案。
您将获得设计完整的EShop 客户支持应用程序的实践经验,包括摘要、问答、分类、情感分析、嵌入语义搜索、代码生成等 LLM 功能。
本课程适合哪些人:
- 将人工智能驱动的 LLM 集成到企业应用程序中的初学者
如果你有能力,请务必支持课程的原创作者,这是他们应得的报酬!
本站收取的费用,仅用来维持网站正常运行的必要支出,从本站下载任何内容,说明你已经知晓并同意此条款。