19-深度学习-NLP自然语言处理原理和进阶夸克网盘资源_网盘资源_夸克网盘资源搜索_全盘搜
- file:12:理解LSTM长短时记忆_记住Topo和公式.mp4
- file:9:理解RNN循环神经网络拓扑结构.mp4
- file:13:VanillaRNN的回顾复习.mp4
- file:17:RNN里面应用的Topology结构.mp4
- file:RNN_Attention机制.pdf
- file:11:利用RNN循环神经网络对MNIST手写数字识别.mp4
- file:15:LSTM的回顾复习_LSTM手写数字识别.mp4
- file:14:补充讲一下为什么RNN中链越长越容易梯度消失.mp4
- file:16:双向RNN_LSTM.mp4
- file:20:Transformer_Positional_使用逻辑_网络结构总结(1).mp4
- file:19:Transformer_Self-Attention_Multi-head(1).mp4
- file:18:Seq2Seq中Attention注意力机制(1).mp4
- file:Word2Vec.pdf
- file:6:Huffman树_分层Softmax的思想.mp4
- file:4:CBOW模型思想和计算过程.mp4
- file:8:负采样和负采样应用到CBOW模型上.mp4
- file:1:N-gram语言模型.mp4
- file:3:词向量的作用.mp4
- file:22:BERT理论.mp4
- file:23:ERNIE_GPT.mp4
- file:21:ELMO(1).mp4
- folder:19-深度学习-NLP自然语言处理原理和进阶
- folder:章节2:循环神经网络原理与优化
- folder:章节3:从Attention机制到Transformer
- folder:章节1:词向量与词嵌入
- folder:章节4:ELMO_BERT_GPT
分享时间 |
2025-03-26 |
入库时间 |
2025-03-27 |
状态检测 |
有效 |
资源类型 |
QUARK |
分享用户 |
荷*
|