【百战程序员】AI算法工程师就业班 - 带源码课件夸克网盘资源_网盘资源_夸克网盘资源搜索_全盘搜
- file:2025热播影视剧无广告在线看.png
- file:日入500+自动软件网盘玩法.docx
- file:2000T免费资源大合集 可搜索.JPG
- file:课件.zip
- file:3:人工智能时代是发展的必然.mp4
- file:6:机器学习不同的学习方式.mp4
- file:8:有监督机器学习任务与本质.mp4
- file:2:人工智能适合人群与必备技能.mp4
- file:7:深度学习比传统机器学习有优势.mp4
- file:53:凸优化的性质_一般表达形式.mp4
- file:17:特殊的向量.mp4
- file:44:最大似然估计思想.mp4
- file:24:高阶偏导数_梯度.mp4
- file:14:向量的内积_向量运算法则.mp4
- file:16:向量的范数_范数与正则项的关系.mp4
- file:8:复合函数求导法则.mp4
- file:50:坐标下降法_数值优化面临的问题.mp4
- file:43:随机向量_独立性_协方差_随机向量的正太分布.mp4
- file:39:条件概率_贝叶斯公式.mp4
- file:26:Hessian矩阵.mp4
- file:54:拉格朗日函数.mp4
- file:28:补充关于正定负定的理解.mp4
- file:13:行向量列向量_转置_数乘_加减乘除.mp4
- file:1:人工智能学习数学的必要性_微积分知识点.mp4
- file:12:向量的意义_n维欧式空间空间.mp4
- file:41:数学期望和方差.mp4
- file:2:线性代数_概率论知识点.mp4
- file:46:迭代求解的原因.mp4
- file:38:概率论_随机事件与随机事件概率.mp4
- file:34:求解奇异值分解中的UΣV矩阵.mp4
- file:29:特征值和特征向量(1).mp4
- file:15:学习向量计算的用途举例.mp4
- file:36:SVD用于PCA降维.mp4
- file:29:策略梯度PG_对比基于值和基于策略网络的区别.mp4
- file:34:代码实战_策略梯度PG和CartPole交互.mp4
- file:31:策略梯度PG_简化导函数的公式推导.mp4
- file:32:策略梯度PG_总结整体流程_对比交叉熵损失函数求导.mp4
- file:38:策略梯度PG_同一个回合中不同的action回溯不同的TotalReward_代码实战.mp4
- file:37:策略梯度PG_对TotalReward进行均值归一化.mp4
- file:13:代码实战SarsaLambda_训练模型.mp4
- file:9:代码实战Q-Learning智能体选择行为.mp4
- file:11:代码实战Sarsa_Agent和Env整体交互.mp4
- file:5:蒙特卡洛和时序差分估算状态V值.mp4
- file:1:强化学习通过智能体与环境交互进行学习.mp4
- file:7:理解Q-table_创建maze交互环境.mp4
- file:2:引入马尔科夫链和价值评估的Q值与V值.mp4
- file:3:详解Q值和V值以及它们之间关系.mp4
- file:6:SARSA算法和Q-learning算法.mp4
- file:20:代码实战DQN_训练阶段得到Q网络的预测值和真实值.mp4
- file:23:DoubleDQN缓解over-estimate.mp4
- file:24:DoubleDQN代码实战.mp4
- file:26:困难样本挖掘_Multi-step_NoiseyNet系统的探索.mp4
- file:27:计算Action的方差避免风险.mp4
- file:19:代码实战DQN_定义损失函数_构建Target网络更新逻辑.mp4
- file:18:代码实战DQN_构建Q网络.mp4
- file:25:DuelingDQN.mp4
- file:16:ε-greedy_ReplayBuffer_FixedQ-targets.mp4
- file:21:代码实战DQN_训练阶段最小化损失_记录loss方便展示_随着learn的越多选择action随机性减小.mp4
- file:28:Rainbow_DQN如何计算连续型的Actions.mp4
- file:15:DQN算法具体流程.mp4
- file:66:代码实战_DPPO_创建一个PPO和多个Worker_创建多线程.mp4
- file:65:DPPO分布式PPO.mp4
- file:56:代码实战_DDPG_与环境之间的互动_AC训练调整参数_效果展示.mp4
- file:57:TD3_使用DoubleNetwork优化DDPG.mp4
- file:62:代码实战_PPO与环境整体交互_Actor与Critic网络构建.mp4
- file:61:PPO_PPO1、TRPO、PPO2三种不同的方式解决两个分布不同的问题.mp4
- file:60:PPO_重要性采样的问题_期望矫正但是方差还是不同带来的问题.mp4
- file:63:代码实战_定义PPO1和PPO2不同版本Actor的Loss计算逻辑.mp4
- file:53:DDPG解决DQN不能输出连续型动作的问题_DDPG如何训练Actor和Critic.mp4
- file:59:PPO_通过重要性采样使得PPO可以做Off-Policy学习.mp4
- file:55:代码实战_DDPG_Critic网络构建_Actor网络链式求导.mp4
- file:58:PPO_强调AC如何输出连续型动作_区分On-Policy与Off-Policy.mp4
- file:54:代码实战_DDPG_构建Actor和Critic四个网络_定义Critic求loss和求梯度的逻辑.mp4
- file:64:代码实战_剖析PPO代码中如何体现Off-Policy的学习方式_效果展示.mp4
- file:51:代码实战_A3C_讲解线程中worker和环境交互.mp4
- file:49:代码实战_A3C_定义AC网络结构_定义worker拉取参数和更新全局网络参数的逻辑.mp4
- file:41:代码实战_ActorCritic与环境交互.mp4
- file:39:ActorCritic原理_把PG和QLearning结合起来.mp4
- file:48:代码实战_A3C_增加actor探索性用到熵_定义worker正太分布抽样和求梯度的逻辑.mp4
- file:40:AdvantageActorCritic_共享参数和修改reward技巧.mp4
- file:47:代码实战_A3C_定义Worker计算loss的逻辑_针对连续型的action提高actor探索性.mp4
- file:44:A3C架构和训练流程.mp4
- file:45:Pendulum环境_根据网络预测的μ和σ得到连续型的action值.mp4
- file:46:代码实战_A3C_讲解Coordinator调度多线程运算.mp4
- file:50:代码实战_A3C_结合流程图分三点总结前面讲的代码.mp4
- folder:【百战程序员】AI算法工程师就业班 - 带源码课件
- folder:31、【加课】强化学习【新增】
- folder:18-深度学习-人脸识别项目实战
- folder:21-深度学习-OCR文本识别
- folder:05、机器学习-线性回归
- folder:19-深度学习-NLP自然语言处理原理和进阶
- folder:10、机器学习与大数据-Kaggle竞赛实战
- folder:25、【加课】百度飞桨PaddlePaddle实战【新增】
- folder:24-【加课】Pytorch项目实战
- folder:01、人工智能基础-快速入门
- folder:03、人工智能基础-Python科学计算和可视化
- folder:26-【加课】Linux环境编程基础
- folder:27-【加课】算法与数据结构
- folder:16-深度学习-目标检测YOLO(V1-V4全版本)实战
- folder:11-机器学习与大数据-海量数据挖掘工具
- folder:章节3:PolicyGradient策略梯度
- folder:章节1:Q-Learning与SARSA算法
- folder:章节2:DeepQ-LearningNetwork
- folder:章节5:DDPG、PPO、DPPO算法
- folder:章节4:ActorCritic(A3C)
- folder:章节1:人脸识别
- folder:章节5:Lasso回归_Ridge回归_多项式回归
- folder:章节3:从Attention机制到Transformer
- folder:章节4:ELMO_BERT_GPT
- folder:章节2:循环神经网络原理与优化
- folder:章节1:上采样_双线性插值_转置卷积
- folder:章节3:蒙版弹幕MaskRCNN语义分割
- folder:章节2:医疗图像UNet语义分割
- folder:章节2:自然场景下的目标检测及源码分析
- folder:章节3:图像风格迁移
- folder:章节3:反向传播推导_Python代码实现神经网络
- folder:章节2:TensorFlow深度学习工具
- folder:章节5:现代目标检测之FasterRCNN
- folder:章节4:古典目标检测
- folder:章节3:经典卷积网络算法
- folder:章节1:药店销量预测案例
- folder:章节3:推荐系统--模型使用和推荐服务
- folder:章节2:推荐系统--数据预处理和模型构建评估实战
- folder:章节5:PaddleNLP模块_物流信息提取(BiGRU+CRF)
- folder:章节2:PaddlePaddle卷积网络_病理性近视识别
- folder:章节3:PaddleDetection工具_PCB电路板缺陷检测
- folder:章节4:PaddleOCR工具_车牌识别(目标检测+CRNN+CTCLoss)
- folder:章节4:Seq2Seq聊天机器人
- folder:章节6:BERT新浪新闻10分类项目
- folder:章节2:自然语言处理--情感分析
- folder:章节5:实战NER命名实体识别项目
- folder:章节4:PyTorch循环神经网络_词性标注
- folder:章节1:PyTorch运行环境安装_运行环境测试
- folder:章节2:PyTorch基础_Tensor张量运算
- folder:章节2:数据可视化模块
- folder:章节1:科学计算模型Numpy
- folder:章节3:数据处理分析模块Pandas
- folder:章节2:EM算法和GMM高斯混合模型
- folder:章节2:集成学习和随机森林
- folder:章节2:Python基础语法
- folder:章节2:Softmax回归
- folder:章节3:YOLOv3详解
- folder:章节3:Spark机器学习MLlib和ML模块
- folder:章节1:Spark计算框架基础
| 分享时间 | 2025-10-16 |
|---|---|
| 入库时间 | 2025-12-05 |
| 状态检测 | 有效 |
| 资源类型 | QUARK |
| 分享用户 | 山东*茶 |
资源有问题?
点此举报