【百战程序员】AI算法工程师就业班 - 带源码课件夸克网盘资源_网盘资源_夸克网盘资源搜索_全盘搜

  • file:2025热播影视剧无广告在线看.png
  • file:日入500+自动软件网盘玩法.docx
  • file:2000T免费资源大合集 可搜索.JPG
  • file:课件.zip
  • file:3:人工智能时代是发展的必然.mp4
  • file:6:机器学习不同的学习方式.mp4
  • file:8:有监督机器学习任务与本质.mp4
  • file:2:人工智能适合人群与必备技能.mp4
  • file:7:深度学习比传统机器学习有优势.mp4
  • file:53:凸优化的性质_一般表达形式.mp4
  • file:17:特殊的向量.mp4
  • file:44:最大似然估计思想.mp4
  • file:24:高阶偏导数_梯度.mp4
  • file:14:向量的内积_向量运算法则.mp4
  • file:16:向量的范数_范数与正则项的关系.mp4
  • file:8:复合函数求导法则.mp4
  • file:50:坐标下降法_数值优化面临的问题.mp4
  • file:43:随机向量_独立性_协方差_随机向量的正太分布.mp4
  • file:39:条件概率_贝叶斯公式.mp4
  • file:26:Hessian矩阵.mp4
  • file:54:拉格朗日函数.mp4
  • file:28:补充关于正定负定的理解.mp4
  • file:13:行向量列向量_转置_数乘_加减乘除.mp4
  • file:1:人工智能学习数学的必要性_微积分知识点.mp4
  • file:12:向量的意义_n维欧式空间空间.mp4
  • file:41:数学期望和方差.mp4
  • file:2:线性代数_概率论知识点.mp4
  • file:46:迭代求解的原因.mp4
  • file:38:概率论_随机事件与随机事件概率.mp4
  • file:34:求解奇异值分解中的UΣV矩阵.mp4
  • file:29:特征值和特征向量(1).mp4
  • file:15:学习向量计算的用途举例.mp4
  • file:36:SVD用于PCA降维.mp4
  • file:29:策略梯度PG_对比基于值和基于策略网络的区别.mp4
  • file:34:代码实战_策略梯度PG和CartPole交互.mp4
  • file:31:策略梯度PG_简化导函数的公式推导.mp4
  • file:32:策略梯度PG_总结整体流程_对比交叉熵损失函数求导.mp4
  • file:38:策略梯度PG_同一个回合中不同的action回溯不同的TotalReward_代码实战.mp4
  • file:37:策略梯度PG_对TotalReward进行均值归一化.mp4
  • file:13:代码实战SarsaLambda_训练模型.mp4
  • file:9:代码实战Q-Learning智能体选择行为.mp4
  • file:11:代码实战Sarsa_Agent和Env整体交互.mp4
  • file:5:蒙特卡洛和时序差分估算状态V值.mp4
  • file:1:强化学习通过智能体与环境交互进行学习.mp4
  • file:7:理解Q-table_创建maze交互环境.mp4
  • file:2:引入马尔科夫链和价值评估的Q值与V值.mp4
  • file:3:详解Q值和V值以及它们之间关系.mp4
  • file:6:SARSA算法和Q-learning算法.mp4
  • file:20:代码实战DQN_训练阶段得到Q网络的预测值和真实值.mp4
  • file:23:DoubleDQN缓解over-estimate.mp4
  • file:24:DoubleDQN代码实战.mp4
  • file:26:困难样本挖掘_Multi-step_NoiseyNet系统的探索.mp4
  • file:27:计算Action的方差避免风险.mp4
  • file:19:代码实战DQN_定义损失函数_构建Target网络更新逻辑.mp4
  • file:18:代码实战DQN_构建Q网络.mp4
  • file:25:DuelingDQN.mp4
  • file:16:ε-greedy_ReplayBuffer_FixedQ-targets.mp4
  • file:21:代码实战DQN_训练阶段最小化损失_记录loss方便展示_随着learn的越多选择action随机性减小.mp4
  • file:28:Rainbow_DQN如何计算连续型的Actions.mp4
  • file:15:DQN算法具体流程.mp4
  • file:66:代码实战_DPPO_创建一个PPO和多个Worker_创建多线程.mp4
  • file:65:DPPO分布式PPO.mp4
  • file:56:代码实战_DDPG_与环境之间的互动_AC训练调整参数_效果展示.mp4
  • file:57:TD3_使用DoubleNetwork优化DDPG.mp4
  • file:62:代码实战_PPO与环境整体交互_Actor与Critic网络构建.mp4
  • file:61:PPO_PPO1、TRPO、PPO2三种不同的方式解决两个分布不同的问题.mp4
  • file:60:PPO_重要性采样的问题_期望矫正但是方差还是不同带来的问题.mp4
  • file:63:代码实战_定义PPO1和PPO2不同版本Actor的Loss计算逻辑.mp4
  • file:53:DDPG解决DQN不能输出连续型动作的问题_DDPG如何训练Actor和Critic.mp4
  • file:59:PPO_通过重要性采样使得PPO可以做Off-Policy学习.mp4
  • file:55:代码实战_DDPG_Critic网络构建_Actor网络链式求导.mp4
  • file:58:PPO_强调AC如何输出连续型动作_区分On-Policy与Off-Policy.mp4
  • file:54:代码实战_DDPG_构建Actor和Critic四个网络_定义Critic求loss和求梯度的逻辑.mp4
  • file:64:代码实战_剖析PPO代码中如何体现Off-Policy的学习方式_效果展示.mp4
  • file:51:代码实战_A3C_讲解线程中worker和环境交互.mp4
  • file:49:代码实战_A3C_定义AC网络结构_定义worker拉取参数和更新全局网络参数的逻辑.mp4
  • file:41:代码实战_ActorCritic与环境交互.mp4
  • file:39:ActorCritic原理_把PG和QLearning结合起来.mp4
  • file:48:代码实战_A3C_增加actor探索性用到熵_定义worker正太分布抽样和求梯度的逻辑.mp4
  • file:40:AdvantageActorCritic_共享参数和修改reward技巧.mp4
  • file:47:代码实战_A3C_定义Worker计算loss的逻辑_针对连续型的action提高actor探索性.mp4
  • file:44:A3C架构和训练流程.mp4
  • file:45:Pendulum环境_根据网络预测的μ和σ得到连续型的action值.mp4
  • file:46:代码实战_A3C_讲解Coordinator调度多线程运算.mp4
  • file:50:代码实战_A3C_结合流程图分三点总结前面讲的代码.mp4
  • folder:【百战程序员】AI算法工程师就业班 - 带源码课件
  • folder:31、【加课】强化学习【新增】
  • folder:18-深度学习-人脸识别项目实战
  • folder:21-深度学习-OCR文本识别
  • folder:05、机器学习-线性回归
  • folder:19-深度学习-NLP自然语言处理原理和进阶
  • folder:10、机器学习与大数据-Kaggle竞赛实战
  • folder:25、【加课】百度飞桨PaddlePaddle实战【新增】
  • folder:24-【加课】Pytorch项目实战
  • folder:01、人工智能基础-快速入门
  • folder:03、人工智能基础-Python科学计算和可视化
  • folder:26-【加课】Linux环境编程基础
  • folder:27-【加课】算法与数据结构
  • folder:16-深度学习-目标检测YOLO(V1-V4全版本)实战
  • folder:11-机器学习与大数据-海量数据挖掘工具
  • folder:章节3:PolicyGradient策略梯度
  • folder:章节1:Q-Learning与SARSA算法
  • folder:章节2:DeepQ-LearningNetwork
  • folder:章节5:DDPG、PPO、DPPO算法
  • folder:章节4:ActorCritic(A3C)
  • folder:章节1:人脸识别
  • folder:章节5:Lasso回归_Ridge回归_多项式回归
  • folder:章节3:从Attention机制到Transformer
  • folder:章节4:ELMO_BERT_GPT
  • folder:章节2:循环神经网络原理与优化
  • folder:章节1:上采样_双线性插值_转置卷积
  • folder:章节3:蒙版弹幕MaskRCNN语义分割
  • folder:章节2:医疗图像UNet语义分割
  • folder:章节2:自然场景下的目标检测及源码分析
  • folder:章节3:图像风格迁移
  • folder:章节3:反向传播推导_Python代码实现神经网络
  • folder:章节2:TensorFlow深度学习工具
  • folder:章节5:现代目标检测之FasterRCNN
  • folder:章节4:古典目标检测
  • folder:章节3:经典卷积网络算法
  • folder:章节1:药店销量预测案例
  • folder:章节3:推荐系统--模型使用和推荐服务
  • folder:章节2:推荐系统--数据预处理和模型构建评估实战
  • folder:章节5:PaddleNLP模块_物流信息提取(BiGRU+CRF)
  • folder:章节2:PaddlePaddle卷积网络_病理性近视识别
  • folder:章节3:PaddleDetection工具_PCB电路板缺陷检测
  • folder:章节4:PaddleOCR工具_车牌识别(目标检测+CRNN+CTCLoss)
  • folder:章节4:Seq2Seq聊天机器人
  • folder:章节6:BERT新浪新闻10分类项目
  • folder:章节2:自然语言处理--情感分析
  • folder:章节5:实战NER命名实体识别项目
  • folder:章节4:PyTorch循环神经网络_词性标注
  • folder:章节1:PyTorch运行环境安装_运行环境测试
  • folder:章节2:PyTorch基础_Tensor张量运算
  • folder:章节2:数据可视化模块
  • folder:章节1:科学计算模型Numpy
  • folder:章节3:数据处理分析模块Pandas
  • folder:章节2:EM算法和GMM高斯混合模型
  • folder:章节2:集成学习和随机森林
  • folder:章节2:Python基础语法
  • folder:章节2:Softmax回归
  • folder:章节3:YOLOv3详解
  • folder:章节3:Spark机器学习MLlib和ML模块
  • folder:章节1:Spark计算框架基础
分享时间 2025-10-16
入库时间 2025-12-05
状态检测 有效
资源类型 QUARK
分享用户 山东*茶
资源有问题? 点此举报

相似推荐

  • 【百战程序员】AI算法工程师就业班 - 带源码课件
  • 【百战程序员】AI算法工程师就业班-带源码课件
  • 【百战程序员】AI算法工程师就业班 - 带源码课件
  • 【百战程序员】AI算法工程师就业班 - 带源码课件
  • 【百战程序员】AI算法工程师就业班 - 带源码课件
  • 【百战程序员】AI算法工程师就业班 - 带源码课件
  • 【百战程序员】AI算法工程师就业班 - 带源码课件
  • 【百战程序员】AI算法工程师就业班 - 带源码课件
  • 【百战程序员】AI算法工程师就业班 - 带源码课件
  • 【百战程序员】AI算法工程师就业班 - 带源码课件

用户其它资源

  • 厉老师1-6年级系统数学思维提升课
  • 流量私教全方位运营小红书变现
  • 流量训练营之内容运营专项课
  • 绿卡图书《小学学霸作业本·语数英 (2025春) 》
  • 绿卡图书《初中学霸同步笔记 (全九科) 》
  • LLPlayer:免费语言学习媒体播放器
  • 李居明-帝皇风水绝学
  • 李建伟-2024公司法新规逐条精讲
  • 模板合集
  • 明朝那些事儿

最新资源

  • 【8.31 异世大陆】逆天神妃至上.txt
  • 【8.31 异世大陆】帝色撩人.txt
  • 【8.30 异世大陆】这个女配惹不起.txt
  • 【9.16女尊王朝】[女尊]云中凤.txt
  • 【8.30 异世大陆】重生之魂香师.txt
  • 【9.16女尊王朝】[穿越]来生繁景.txt
  • 【9.16女尊王朝】[虐恋]双珠阖.txt
  • 【9.16女尊王朝】嫡女千宠.txt
  • 【9.16女尊王朝】高冉的异世生活.txt
  • 【9.16女尊王朝】萌猫也逆袭.txt