Ollama 中的从零到英雄:创建本地 LLM 应用程序
在您的系统上私下运行定制的 LLM 模型 | 使用类似 ChatGPT 的界面 | 使用 Python 构建本地应用程序
讲师:Start-Tech Academy
双语IT资源独家Udemy付费课程,独家中英文字幕,配套资料齐全!
用不到1/10的价格,即可享受同样的高品质课程,且可以完全拥有,随时随地都可以任意观看和分享。
您将学到什么
- 在本地系统上安装并配置 Ollama 以私下运行大型语言模型。
- 使用 Ollama 的选项和命令行工具定制 LLM 模型以满足特定需求。
- 执行控制、监控和排除 Ollama 模型故障所需的所有终端命令
- 使用 Open WebUI 设置和管理类似 ChatGPT 的界面,让您能够本地与模型进行交互
- 部署 Docker 和 Open WebUI 以在私有环境中运行、自定义和共享 LLM 模型。
- 针对各种应用使用不同类型的模型,包括文本、视觉和代码生成模型。
- 从 gguf 文件创建自定义 LLM 模型并将其集成到您的应用程序中。
- 使用其本机库和 OpenAI API 兼容性构建与 Ollama 模型交互的 Python 应用程序。
- 通过将 Ollama 模型与 LangChain 集成,开发 RAG(检索增强生成)应用程序。
- 实施工具和代理来增强 Open WebUI 和 LangChain 环境中的模型交互,以实现高级工作流程。
探索相关主题
- 大型语言模型 (LLM)
- 数据科学
- 发展
要求
- 建议具备基本的 Python 知识和能够运行 Docker 和 Ollama 的计算机,但不需要任何 AI 经验。
描述
您是否希望在自己的系统上构建和运行定制的大型语言模型 (LLM),而不依赖云解决方案?您是否想在利用类似于 ChatGPT 的强大模型的同时保持隐私?如果您是开发人员、数据科学家或想要创建本地 LLM 应用程序的 AI 爱好者,那么本课程非常适合您!
本实践课程将带您从初学者成长为 Ollama 的专家, Ollama是一个专为运行本地 LLM 模型而设计的平台。您将学习如何设置和自定义模型、创建类似 ChatGPT 的界面以及使用 Python 构建私有应用程序 – 所有这些都可以在您自己的系统中轻松完成。
在本课程中,您将:
- 安装并定制Ollama 以进行本地 LLM 模型执行
- 掌握所有命令行工具以有效控制 Ollama
- 使用 Open WebUI 在您的系统上运行类似 ChatGPT 的界面
- 集成各种模型(文本、视觉、代码生成),甚至创建自己的自定义模型
- 使用 Ollama 及其库构建 Python 应用程序,并兼容 OpenAI API
- 利用 LangChain增强您的 LLM 功能,包括检索增强生成 (RAG)
- 部署工具和代理,在终端和 LangChain 环境中与 Ollama 模型进行交互
为什么这门课程很重要?在隐私越来越受关注的世界中,在本地运行 LLM 可确保您的数据保留在您的机器上。这不仅可以提高数据安全性,还允许您自定义模型以完成专门的任务,而无需依赖外部资源。
您将完成构建自定义模型、为 Web 界面设置 Docker 以及开发基于数据检索和响应用户查询的 RAG 应用程序等活动。每个部分都包含实际应用程序,可为您提供构建自己的本地 LLM 解决方案的经验和信心。
为什么要选这门课程?我擅长通过实践项目让高级 AI 主题变得实用且易于理解,确保您不仅能学习,还能真正构建真正的解决方案。无论您是法学硕士 (LLM) 新手还是希望深化技能,这门课程都能为您提供所需的一切。
准备好私下构建您自己的 LLM 应用程序了吗?立即注册,使用 Ollama 完全掌控您的 AI 之旅!
本课程适合哪些人:
- 希望在本地系统上私下构建和运行定制的 LLM 模型的 AI 爱好者。
- Python 开发人员寻求将大型语言模型集成到本地应用程序中以增强功能。
- 数据科学家的目标是创建安全、私密的 LLM 驱动工具,而不依赖基于云的解决方案。
- 机器学习工程师希望使用 Ollama 和 LangChain 探索和定制开源模型。
- 想要使用本地数据开发 RAG(检索增强生成)应用程序的技术专业人士。
- 注重隐私的开发人员有兴趣运行能够完全控制数据和环境的 AI 模型。
显示更多显示较少
如果你有能力,请务必支持课程的原创作者,这是他们应得的报酬!
本站收取的费用,仅用来维持网站正常运行的必要支出,从本站下载任何内容,说明你已经知晓并同意此条款。