课程介绍
本课程是为数据开发与AI代理爱好者量身打造的系统性学习计划,从大数据基础技术(MySQL、Linux)到企业级项目实战(实时计算、数据仓库构建、用户画像等),再到最前沿的AI大模型开发,涵盖全栈开发必备的技能。
课程目录
(1)\大模型与Agent开发实战【新课】
(2)\大模型与Agent开发实战课件
├─00_随课程更新,课件持续放出.txt
(3)\大模型与Agent开发实战【新课】\PART4:DeepSeekV3 (5小节)
├─【DeepSeekv3】1 整体架构与分布式基础概念.mp4
├─【DeepSeekv3】2 分布式嵌入层与投影层.mp4
├─【DeepSeekv3】3 MLA潜在注意力 (1) 从自回归掩码看KV缓存机制.mp4
├─【DeepSeekv3】4 MLA潜在注意力 (2) 针对KV缓存的改进.mp4
├─【DeepSeekv3】5 DeepSeekMOE的MOE架构与创新.mp4
(4)\大模型与Agent开发实战【新课】\一,在线大模型部署调用;目录中文件数:68个
├─DSPy优化器优化LLM程序.ts
├─DSPy:斯坦福20k+星标项目 – 革命性的LLM优化框架,从评估到自动优化你的LLM系统(如RAG系统).ts
├─GLM 4 工具调用从入门到精通与CogVideoX 文本生成视频 API 全流程.ts
├─GLM Assistant API集成与FastAPI服务复刻实战指南.ts
├─GLM模型:流式处理的工具调用、多模态应用及模型微调实战指南.ts
├─【Claude】01_了解Claude的所有特质.MP4
├─【Claude】02_Claude的注册流程.ts
├─【Claude】03_API_KEY领取及调用.ts
├─【Claude】04_API必须参数揭秘,多轮对话机器人速成指南_x264.ts
├─【Claude】05_API多模态的最佳实践.ts
├─【Claude】06_API生成定制化与提示工程实战长文档.mp4
├─【Claude】07_tool use全流程讲解与wiki搜索实战.ts
├─【Claude】08_tool_choice与定制Json输出及tool_use大实战.ts
├─【Claude】09_揭秘prompt Cache提示缓存:节省成本加快响应的绝技.ts
├─【Claude】10_stream函数及生成器本质讲解.ts
├─【Claude】11_stream流式概念与使用方法讲解.ts
├─【Claude】12_异步的使用原因与基本语法.ts
├─【Claude】13_异步的API调用的讲解与实践.ts
├─【Gemini】01_Gemini注册指南-最新模型免费API调用.ts
├─【Gemini】02_生态体验攻略与微调实战.ts
├─【Gemini】03_解锁 Gemini API-开启文本生成之旅.ts
├─【Gemini】04_掌握原生generate_content函数多轮对话技巧.ts
├─【Gemini】05_API内置简化多轮对话的start_chat函数与ChatSessi.ts
├─【Gemini】06_API精细化控制生成之System Instruction.ts
├─【Gemini】07_API精细化控制生成之generation_config与max_t.ts
├─【Gemini】08_API精细化控制生成之Temperature与Stop Sequen.ts
├─【Gemini】09_提示工程之长文档实战.ts
├─【Gemini】10_API精细化控制生成结构化与Json参数.ts
├─【GLMAssistantAPI】01_调用assistantAPI流程与效果.ts
├─【GLMAssistantAPI】02_多个assistant演示解析使用.ts
├─【GLMAssistantAPI】03_将智能体集成Agent类使用.ts
├─【GLMAssistantAPI】04_构建fastapi的Web项目.ts
├─【GLMAssistantAPI】05_复刻AssistantAPI.ts
├─【GLM】01_GLM大模型API调用介绍与领取APIKEY.ts
├─【GLM】02_GLM模型API初次调用与响应解析.ts
├─【GLM】03_大模型API调用的消息和构建多轮对话机器人.ts
├─【GLM】04_十分钟速通GLM的可选参数.ts
├─【GLM】05_GLM的stream流式响应讲解.ts
├─【GLM】06_tooluse上-一次api调用的tooluse.ts
├─【GLM】07_tooluse下-两次api调用的tooluse.ts
├─【GLM】08_tooluse接入维基百科搜索实战.ts
├─【GLM】09_CogVideoX视频生成大模型.ts
├─【GPT4o】01_4o文本生成API基本讲解与调用.ts
├─【GPT4o】02_2个核心必需参数详解与对话消息本质剖析.ts
├─【GPT4o】03_多轮对话历史及面向对象多轮对话机器人实战.ts
├─【GPT4o】04_精细控制生成可选参数系列讲解.ts
├─【GPT4o】05_4o多模态图片的文本生成API调用详解.ts
├─【GPT4o】06_3步的 tool use基础讲解与【实战】社交媒体情绪数据分析.ts
├─【GPT4o】07_5步的 tool use完整的调用流程与汇总.ts
├─【GPT4o】08_tool use 维基百科实时写作助手【实战】.ts
├─【GPT4o】09_并行的函数调用与实时股票价格、历史走势绘图与分析【实战】.ts
├─【GPT4o】10_输出生成结构化的3种方式(JSON结构化).ts
├─【GPT4o】11_首token时延与提示缓存原理与最佳实践.ts
├─【GPT4o】12_Streaming流式响应详解.ts
├─【GPT4o】13_函数调用中的Streaming流式响应.ts
├─【GPT4o】14_风格微调(上)创建数据集与微调作业.ts
├─【GPT4o】15_风格微调(下)微调作业运行与应用评估.ts
├─【GPTo1】01_o1大模型原理介绍 从4o到o1实际上发生了什么.ts
├─【GPTo1】02_o1模型的API调用详解与总结.ts
├─【GPTo1】03_通过COT制作4o-mini版本的o1模型【实战】.ts
├─【GPTo1】04_2种加载模型o1没有的Json结构功能与【实战】.ts
├─【GPTo1】05_用o1蒸馏模型实战(上).ts
├─【GPTo1】06_用o1蒸馏模型实战(下).ts
├─【GPT】01_OPENAI的账号注册速通.ts
├─【GPT】02_OPEN AI官网及开发者平台使用指南.ts
├─【GPT】03_虚拟信用卡开通与升级GPT_Plus会员.ts
├─【GPT】04_API账户充值及领取API_KEY及首次调用API.ts
├─提示工程全解指南.ts
(5)\大模型与Agent开发实战【新课】\三,大模型微调实战;目录中文件数:36个
├─Ch 1.1 通用模型发展与微调前景.ts
├─Ch 1.2 微调与其他技术的区别和关联.ts
├─Ch 1.3 微调步骤及技术栈.ts
├─Ch 1.4 高效微调及范围.ts
├─Ch 1.5 强化学习RHLF介绍.ts
├─Ch 1.6 主流微调框架.ts
├─Ch 2.1 Lora原理详解.ts
├─Ch 2.2 LLama_factory 介绍.ts
├─Ch 2.3 LLama_factory 安装部署及验证.ts
├─Ch 2.4 实战Qwen2.5微调.ts
├─Ch 2.5 配置TensorBoard.ts
├─Ch 3.1 如何获取数据源及使用解析.ts
├─Ch 3.2 llamafactory中如何使用和注册数据集.ts
├─Ch 3.3 模型微调及参数详解.ts
├─Ch 3.4 数据验证&deepspeed微调.ts
├─Ch 4.1 win&Qlora&qwen2.5_Qlora能节约多少内存.ts
├─Ch 4.2 Qlora核心概念.ts
├─Ch 4.3如何在windows配置环境.ts
├─Ch 4.4 Qlor微调实战与验证.ts
├─Ch 5.1PPO&llama3.2_什么是PPO算法.ts
├─Ch 5.2 如何理解PPO.ts
├─Ch 5.3 各个模型PPO算法的协作关系.ts
├─Ch 5.4 PPO模型与数据的选择.ts
├─Ch 5.5 PPO微调实操.ts
├─Ch 5.6 PPO源码解读.ts
├─Ch 6.1 RLHF&Qwen2.5,RLHF背景与意义.ts
├─Ch 6.2 RLHF流程拆解与核心.ts
├─Ch 6.3 奖励模型原理.ts
├─Ch 6.4 奖励模型训练流程.ts
├─Ch 6.5 RLHF全流程微调.ts
├─Ch 6.6 RLHF挑战与改进方向.ts
├─DPO微调Qwen2.5.ts
├─LLama_factory&Lora微调Qwen2.5做NL2sql.ts
├─LLama_Factory+LORA大模型微调.ts
├─PPO微调Llama-3.2.ts
├─window系统微调QLORA.ts
(6)\大模型与Agent开发实战【新课】\二,开源大模型部署调用;目录中文件数:64个
├─Cursor&Coder高效低代码开发办法.ts
├─Glm-Edge-v-5B模型介绍与本地部署.ts
├─Marco-o1模型介绍与本地部署.ts
├─Ollama最新版本保姆级指南.ts
├─Ollama最新版本启动多模态模型Llama3.2Vision全流程[Linux环境].ts
├─Qwen2–5Coder本地部署使用全流程.ts
├─Qwen2–5Coder:32B基本介绍和测试.ts
├─Qwen2VL多模态模型参数介绍&部署使用全流程.ts
├─【ChatGLM3-6B】01_Ubuntu双系统安装.MP4
├─【ChatGLM3-6B】02_Ubuntu环境下ChatGLM3-6b命令行安装办法.MP4
├─【ChatGLM3-6B】03_服务器环境下部署ChatGLM3-6b.ts
├─【ChatGLM3-6B】04_ChatGLM3-6b的多种启动方法.ts
├─【ChatGLM3-6B】05_AutoDL快速部署ChatGLM3-6b办法.ts
├─【ChatGLM3-6B】06_Git方法简洁下载ChatGLM3-6b.ts
├─【ChatGLM3-6B】07_以ChatGLM3-6b为例的大模型更新办法.ts
├─【ChatGLM3-6B】08_单机多卡启动大模型办法.ts
├─【ChatGLM3-6B】09_LoRA原理浅析.ts
├─【ChatGLM3-6B】10_LoRA微调实战训练.ts
├─【ChatGLM3-6B】11_DeepSpeed原理浅析.ts
├─【ChatGLM3-6B】12_PEFT高效微调原理浅析.ts
├─【ChatGLM3-6B】13_P-Tuning V2微调实战.ts
├─【ChatGLM3-6B】14_LangChian体系详解.ts
├─【ChatGLM3-6B】15_LangChain0.3安装部署与调用方法.ts
├─【Cursor】在Windows环境下调用QWQ线上API实现辅助编程方法.ts
├─【Cursor】调用QWQ实现辅助编程–调用本地模型全流程.ts
├─【GLM4-9B】01_模型基本介绍.ts
├─【GLM4-9B】02_安装部署流程展示.ts
├─【GLM4-9B】03_多种启动方式流程展示.ts
├─【GLM4-9B】04_vLLM介绍和部署应用.ts
├─【GLM4-9B】05_WSL部署流程.ts
├─【GLM4-Voice】01_模型基本介绍.ts
├─【GLM4-Voice】02_多模态与AGI技术展望.ts
├─【GLM4-Voice】03_本地化部署流程.ts
├─【GLM4-Voice】04_线上部署流程.ts
├─【GLM4-Voice】05_开源大模型比拼-排行榜介绍.ts
├─【Llama.cpp】以Qwen2.5为例实现量化模型启动与API调用.ts
├─【Llama.cpp】以Qwen2VL为例实现GGUF模型量化与调用办法.ts
├─【Llama3.1】01_Llama家族系列模型生态介绍.ts
├─【Llama3.1】02_线上体验办法.ts
├─【Llama3.1】03_技术论文解读.ts
├─【Llama3.1】04_官网以及Ollama部署流程.ts
├─【Llama3.1】05_ModelScope线上部署.ts
├─【Llama3.1】06_ModelScope本地部署.ts
├─【Llama3.1】07_LlamaFactory中文能力微调实例.ts
├─【Llama3.2】01_基本介绍与线上测试办法.ts
├─【Llama3.2】02_官网下载流程.ts
├─【Llama3.2】03_Ollama在Linux和Windows部署方法.ts
中间省略数百条目录
├─Ch 12.1 LangGraph知识点概述总结.ts
├─Ch 12.2 LangGraph中的HIL实现思路.ts
├─Ch 12.3 标准图结构中如何添加断点.ts
├─Ch 12.4 复杂代理架构中如何添加动态断点.ts
├─Ch 12.5 案例:具备人机交互的完整Agent信息管理系统.ts
├─Ch 13.1 Single-Agent 存在的局限.ts
├─Ch 13.2 Multi-Agent 架构分类及子图的通信模式 – 副本.ts
├─Ch 13.3 父、子图状态中无共同键的通信方式.ts
├─Ch 13.4 案例:基于网络架构实现智能BI数据分析多代理系统(上).ts
├─Ch 13.5 案例:基于网络架构实现智能BI数据分析多代理系统(下).ts
├─Ch 14.1 Supervisor 架构介绍与基本构建原理.ts
├─Ch 14.2 案例:基于 Supervisor 架构实现多代理系统.ts
├─Ch 14.3 GraphRAG 基本介绍与核心架构.ts
├─Ch 14.4 案例:Multi-Agent实现混合多知识库检索.ts
├─Ch 2.1 AI Agent与LLMs + RAG的本质区别.ts
├─Ch 2.2 AI Agent三种应用类型及python实现可交互的聊天机器人.ts
├─Ch 2.3 Funcation Calling 完整生命周期细节复现.ts
├─Ch 2.4 实现具备Funcation Calling的智能电商客服.ts
├─Ch 2.5 Function Calling并行调用和多函数调用的应用方法.ts
├─Ch 2.6 加餐:OpenAI最新推出的结构化输出功能介绍.ts
├─Ch 3.1 Funcation Calling 与 AI Agent的本质区别.ts
├─Ch 3.2 提示工程到代理工程的平滑过度.ts
├─Ch 3.3 ReAct Agent框架的基础理论.ts
├─Ch 3.4 案例:从零复现ReAct Agent的完整流程.ts
├─Ch 3.5 项目:基于ReAct Agent构建电商智能客服_batch.ts
├─Ch 4.1 Assistant API 框架的整体介绍.ts
├─Ch 4.2 Assistant对象的创建方法.ts
├─Ch 4.3 Thread、Messges及Run应用方法.ts
├─Ch 4.4 Run运行时的状态转移机制.ts
├─Ch 4.5 实现Run状态的轮询方法,并实现Assistant API完整链路.ts
├─Ch 5.1 Assistant API 进阶应用方法介绍.ts
├─Ch 5.2 File Search内置工具说明及文件管理.ts
├─Ch 5.3 基于 Assistant API 创建在线私有知识库.ts
├─Ch 5.4 在Assistant和Thread定义File Search工具的四种策略.ts
├─Ch 5.5 如何处理Assistant API输出响应中的注释.ts
├─Ch 5.6 Code Interpreter(代码解释器)的应用技巧.ts
├─Ch 5.7 基于Funcation Calling实现本地代码解释器.ts
├─Ch 6.1 为什么企业级应用必须接入流式输出.ts
├─Ch 6.2 Assistant API中流式输出的开启方法.ts
├─Ch 6.3 Assistant API 流式传输中的事件流原理细节.ts
├─Ch 6.4 如何在 Assistant API 流式传输中接入外部函数.ts
├─Ch 6.5 应用案例(1):异步构建Assistant对象的工程化代码.ts
├─Ch 6.6 应用案例(2):集成外部函数方法及项目完整功能介绍.ts
├─Ch 7.1 LangChain的AI Agent开发框架架构设计.ts
├─Ch 7.2 LangGraph 的底层构建原理.ts
├─Ch 7.3 Langgraph底层源码解析.ts
├─Ch 7.4 LangGraph中如何接入大模型做问答流程.ts
├─Ch 8.1 LangGraph中State的定义模式.ts
├─Ch 8.2 使用字典类型定义状态的方法与优劣势.ts
├─Ch 8.3 LangGraph状态管理中Reducer函数的使用.ts
├─Ch 8.4 MessageGraph源码功能解析.ts
├─Ch 8.5 LangSmith基本原理与使用入门.ts
├─Ch 9.1 LangGraph代理架构及Router Agent介绍.ts
├─Ch 9.2 LangGraph中可应用的三种结构化输出方法.ts
├─Ch 9.3 结合结构化输出构建Router Agent(数据库).ts
├─Ch 9.4 Tool Calling Agent 中ToolNode的使用.ts
├─Ch 9.5 Tool Calling Agent的完整实现案例:实时搜索与数据库集成.ts
├─LangGraph 多代理与 GraphRAG 综合应用实战(1).ts
├─LangGraph 多代理与 GraphRAG 综合应用实战.ts
├─【MateGenPro】Ch 1. MateGen Pro 项目整体架构介绍.ts
├─【MateGenPro】Ch 2. 本地运行MateGen Pro项目流程.ts
├─【MateGenPro】Ch 3. MateGen Pro 后端API核心模块设计.ts
├─【MateGenPro】Ch 4. SQLAlchemy原理与项目接入.ts
├─【MateGenPro】Ch 5. MateGen 数据库初始化逻辑.ts
├─【MateGenPro】Ch 6 API_Key接口初始化与校验.ts
├─【MateGenPro】Ch 7 缓存池与系统初始化逻辑.ts
├─【MateGenPro】Ch 8 会话管理模块表结构设计与代码讲解.ts
├─大模型应用发展及Agent前沿技术趋势.MP4
├─项目开发实战一:从零搭建多功能智能体 MateGen Pro(第二部分).ts
(10)\大模型与Agent开发实战课件\Agent开发实战-课件;目录中文件数:12个
├─01_大模型应用发展及Agent前沿技术趋势.ipynb
├─02_AI Agent应用类型及Function Calling开发实战.ipynb
├─04_OpenAI Assistant API 基本理论与入门实战.ipynb
├─05_OpenAI Assistant API 进阶应用.zip
├─07_LangGraph底层原理解析与基础应用入门.ipynb
├─08_LangGraph中State状态模式与LangSmith基础使用入门(1).ipynb
├─09_单代理架构在 LangGraph 中构建复杂图的应用.ipynb
├─10_LangGraph 实现自治循环代理(ReAct)及事件流的应用.ipynb
├─11_LangGrah 长短期记忆实现机制及检查点的使用.ipynb
├─12_LangGraph 中 Human-in-the-loop 应用实战.ipynb
├─13_LangGraph Multi-Agent Systems 开发实战.ipynb
├─16_MicroSoft AutoGen 代理对话与人机交互源码解析.ipynb
(11)\大模型与Agent开发实战课件\在线大模型部署与调用-课件;目录中文件数:0个
(12)\大模型与Agent开发实战课件\大模型微调-课件;目录中文件数:9个
├─CH 1 论文.zip
├─Ch 1. 大模型微调.ipynb
├─Ch 2. LLama_Factory+LORA大模型微调.ipynb
├─Ch 3. LLama_factory&Lora微调Qwen2.5做NL2sql.ipynb
├─Ch 4. Window微调Qlora.ipynb
├─Ch 5. PPO微调LLama-3.2.ipynb
├─Ch 6. RHLF微调Qwen2.5.ipynb
├─Ch 7. DPO微调Qwen2.5.ipynb
├─Ch 8 PEFT&医疗领域模型微调实践.ipynb
(13)\大模型与Agent开发实战课件\开源大模型部署与调用-课件;目录中文件数:12个
├─02_【GLM4-9B-Chat】GLM4-9b部署&vLLM推理.ipynb
├─03_【Llama3.1】Llama 3.1介绍与部署流程.ipynb
├─04_【Llama3.2】Llama3.2介绍与部署流程.ipynb
├─05_【Qwen2.5】Qwen2.5介绍与部署流程.ipynb
├─06_【Qwen2.5】Qwen2.5-Coder&Math介绍部署.ipynb
├─08_【Ollama】最新版本从入门到进阶攻略.ipynb
├─09_【Marco-01】推理大模型参数介绍与本地部署.ipynb
├─10_【GLM-Edge-V】端侧多模态模型参数介绍与部署流程.ipynb
├─11_【Qwen2VL】多模态视觉识别模型参数介绍与部署.ipynb
├─12_【Llama.cpp】开源推理框架量化模型使用指南.ipynb
├─13_【GLM4-Voice】语音模型参数介绍与部署.ipynb
├─14_【Cursor】以调用QWQ推理大模型为例实现辅助编程.ipynb
(14)\大模型与Agent开发实战【新课】\六,直播回放篇\加餐-前沿技术追更;目录中文件数:9个
├─【加餐】01 Computer Use API 详解(1)准备工作.ts
├─【加餐】02 Computer Use API 详解(2)对话函数上.ts
├─【加餐】03 Computer Use API 详解(3)对话函数下.ts
├─【加餐】04 Computer Use API 详解(4)多轮对话及tool use.ts
├─【加餐】05 Computer Use API 详解(5)全组件总结.ts
├─【加餐】06 Computer use实战初窥.ts
├─【加餐】07 Computer Use docker安装部署全流程.ts
├─【加餐】08 Computer Use项目启动&实战案例.ts
├─【加餐】09 Computer Use源码详解.ts
(15)\大模型与Agent开发实战【新课】\六,直播回放篇\直播回放;目录中文件数:16个
├─ChatGPT的注册与ChatGPT API充值.ts
├─GLM-4-Video-9b 介绍与部署流程.ts
├─GPT4o的API基本调用、精细生成控制与多模态实操.ts
├─GPT4o的函数调用实战与结构化生成回答与提示缓存原理.ts
├─LangGraph 中 Human-in-the-loop 应用实战.ts
├─LangGraph 实现自治循环代理(ReAct)及事件流的应用.ts
├─LangGraph 长短期记忆实现机制及检查点的使用.ts
├─LangGraph中State状态模式与LangSmith基础使用入门(1).ts
├─LangGraph中State状态模式与LangSmith基础使用入门.ts
├─Llama 3.1&2部署微调.ts
├─Llama 3.1介绍与部署流程.ts
├─o1模型详解与模型蒸馏实战(1).ts
├─o1模型详解与模型蒸馏实战.ts
├─OPENAI的Streaming流式响应与API微调双实战,Claude computer use接入自己的电脑.ts
├─Qwen2.5-Coder&Math介绍与部署.ts
├─Qwen2.5介绍与部署流程.ts
请先
!