九天菜菜-大模型与Agent开发实战夸克网盘资源_网盘资源_夸克网盘资源搜索_全盘搜
- file:Ch 3.4 案例:从零复现ReAct Agent的完整流程.ts
- file:Ch 3.2 提示工程到代理工程的平滑过度.ts
- file:【MateGenPro】Ch 7 缓存池与系统初始化逻辑.ts
- file:Ch 6.4 如何在 Assistant API 流式传输中接入外部函数.ts
- file:Ch 2.5 Function Calling并行调用和多函数调用的应用方法.ts
- file:Ch 8.1 LangGraph中State的定义模式.ts
- file:Ch 13.1 Single-Agent 存在的局限.ts
- file:Ch 4.3 Thread、Messges及Run应用方法.ts
- file:Ch 5.6 Code Interpreter(代码解释器)的应用技巧.ts
- file:Ch 5.2 File Search内置工具说明及文件管理.ts
- file:Ch 13.5 案例:基于网络架构实现智能BI数据分析多代理系统(下).ts
- file:Ch 9.3 结合结构化输出构建Router Agent(数据库).ts
- file:大模型应用发展及Agent前沿技术趋势.MP4
- file:【MateGenPro】Ch 2. 本地运行MateGen Pro项目流程.ts
- file:Ch 2.6 加餐:OpenAI最新推出的结构化输出功能介绍.ts
- file:Ch 8.4 MessageGraph源码功能解析.ts
- file:Ch 1.2 大模型应用的本地知识库问答核心技术-RAG.ts
- file:Ch 11.2 LangGraph的短期记忆及Checkpointer(检查点).ts
- file:Ch 6.6 应用案例(2):集成外部函数方法及项目完整功能介绍.ts
- file:Ch 14.4 案例:Multi-Agent实现混合多知识库检索.ts
- file:Ch 2.1 AI Agent与LLMs + RAG的本质区别.ts
- file:Ch 11.5 长期记忆和Store(仓库).ts
- file:LangGraph 多代理与 GraphRAG 综合应用实战.ts
- file:Ch 13.2 Multi-Agent 架构分类及子图的通信模式 - 副本.ts
- file:【Qwen2.5】05_在Windows系统中使用Ollama框架部署流程.ts
- file:【Llama3.1】07_LlamaFactory中文能力微调实例.ts
- file:Marco-o1模型介绍与本地部署.ts
- file:【GLM4-9B】01_模型基本介绍.ts
- file:Qwen2VL多模态模型参数介绍&部署使用全流程.ts
- file:【ChatGLM3-6B】02_Ubuntu环境下ChatGLM3-6b命令行安装办法.MP4
- file:【Qwen2.5Coder&Math】05_Math线上体验.ts
- file:【ChatGLM3-6B】12_PEFT高效微调原理浅析.ts
- file:Qwen2--5Coder:32B基本介绍和测试.ts
- file:Cursor&Coder高效低代码开发办法.ts
- file:【Llama3.1】04_官网以及Ollama部署流程.ts
- file:Ollama最新版本启动多模态模型Llama3.2Vision全流程[Linux环境].ts
- file:【Llama3.1】05_ModelScope线上部署.ts
- file:【Qwen2.5】01_基本介绍与线上体验办法.ts
- file:【ChatGLM3-6B】15_LangChain0.3安装部署与调用方法.ts
- file:【GLM4-Voice】02_多模态与AGI技术展望.ts
- file:【Gemini】04_掌握原生generate_content函数多轮对话技巧.ts
- file:【GLM】09_CogVideoX视频生成大模型.ts
- file:【GPTo1】05_用o1蒸馏模型实战(上).ts
- file:【Gemini】06_API精细化控制生成之System Instruction.ts
- file:【Claude】07_tool use全流程讲解与wiki搜索实战.ts
- file:【Claude】12_异步的使用原因与基本语法.ts
- file:【GPT4o】09_并行的函数调用与实时股票价格、历史走势绘图与分析【实战】.ts
- file:【GPTo1】04_2种加载模型o1没有的Json结构功能与【实战】.ts
- file:【GPT4o】08_tool use 维基百科实时写作助手【实战】.ts
- file:【Claude】05_API多模态的最佳实践.ts
- file:【Claude】08_tool_choice与定制Json输出及tool_use大实战.ts
- file:【GLMAssistantAPI】01_调用assistantAPI流程与效果.ts
- file:【Claude】06_API生成定制化与提示工程实战长文档.mp4
- file:【Gemini】01_Gemini注册指南-最新模型免费API调用.ts
- file:【GPT4o】13_函数调用中的Streaming流式响应.ts
- file:【GLM】11_tool_use和流式结合的API调用.mp4
- file:DSPy:斯坦福20k+星标项目 - 革命性的LLM优化框架,从评估到自动优化你的LLM系统(如RAG系统).ts
- file:【Gemini】05_API内置简化多轮对话的start_chat函数与ChatSessi.ts
- file:GLM Assistant API集成与FastAPI服务复刻实战指南.ts
- file:【GPT4o】11_首token时延与提示缓存原理与最佳实践.ts
- file:DSPy优化器优化LLM程序.ts
- file:【Claude】10_stream函数及生成器本质讲解.ts
- file:【GPTo1】02_o1模型的API调用详解与总结.ts
- file:【GLM】10_GLM4V图像多模态模型.mp4
- file:【Gemini】02_生态体验攻略与微调实战.ts
- file:【GPT】04_API账户充值及领取API_KEY及首次调用API.ts
- file:Ch 2.2 LLama_factory 介绍.ts
- file:Ch 4.1 win&Qlora&qwen2.5_Qlora能节约多少内存.ts
- file:DPO微调Qwen2.5.ts
- file:LLama_factory&Lora微调Qwen2.5做NL2sql.ts
- file:Ch 6.2 RLHF流程拆解与核心.ts
- file:Ch 1.1 通用模型发展与微调前景.ts
- file:Ch 2.4 实战Qwen2.5微调.ts
- file:Ch 3.4 数据验证&deepspeed微调.ts
- file:LLama_Factory+LORA大模型微调.ts
- file:Ch 3.1 如何获取数据源及使用解析.ts
- file:Ch 6.4 奖励模型训练流程.ts
- file:PPO微调Llama-3.2.ts
- file:Ch 1.5 强化学习RHLF介绍.ts
- file:Ch 5.2 如何理解PPO.ts
- file:Ch 5.1PPO&llama3.2_什么是PPO算法.ts
- file:Ch 4.3如何在windows配置环境.ts
- file:Ch 1.3 微调步骤及技术栈.ts
- file:window系统微调QLORA.ts
- file:Ch 4.4 Qlor微调实战与验证.ts
- file:Ch 2.5 配置TensorBoard.ts
- file:Ch 5.3 各个模型PPO算法的协作关系.ts
- folder:九天菜菜-大模型与Agent开发实战
- folder:2-开源大模型部署调用
- folder:企业级实战
- folder:5-RAG项目实战企业篇
- folder:DeepSeek-V3&R1
- folder:6-直播回放篇
- folder:PART4:DeepSeekV3 (5小节)
- folder:低代码开发实战Dify&Coze
- folder:Agent开发实战-课件
- folder:在线大模型部署与调用-课件
- folder:2
| 分享时间 | 2025-07-23 |
|---|---|
| 入库时间 | 2025-08-07 |
| 状态检测 | 有效 |
| 资源类型 | QUARK |
| 分享用户 | 夸父*源27 |
资源有问题?
点此举报