Python
版本为3.6,其它包的版本信息见requirements.txt
,使用如下命令即可完成安装。
pip install -r requirements.txt
第一部分:前馈神经网络 代码
- 你告诉我什么是深度学习
- 这样拟合正弦函数你会吗?
- Pytorch之Linear与MSELoss
- 想明白多分类必须得谈逻辑回归
- Pytorch之Softmax多分类任务
- Pytorch之简洁实现Softmax多分类
- 我告诉你什么是深度学习
- Pytorch之多层感知机分类任务
l.backward
你到底是个什么东西?- 你还不会实现反向传播?
- Softmax+Cross entropy 梯度检验
第二部分:卷积神经网络 代码
- 看不懂卷积或许只是因为
- 原来卷积是这么计算的
- 卷积操作中的填充与池化
- 卷积池化与LeNet5网络模型
- LeNet5的继任者AlexNet模型
- VGG一个可使用重复元素的网络
- NiN一个即使放到现在也不会过时的网络
- 厉害了!能把多尺度卷积说得这么高大上
- 你看这个网络它又宽又长
- Top-K准确率介绍与实现
- 不得不说的Batch Normalization
- Batch Normalization分析与实现
- 多标签分类中的损失函数与评价指标
第三部分:循环神经网络 代码
第四部分:模型训练 代码
第五部分: Transformer网络模型 代码
- This post is all you need(①多头注意力机制原理)
- This post is all you need(②位置编码与编码解码过程)
- This post is all you need(③网络结构与自注意力实现)
- This post is all you need(④Transformer的实现过程)
- This post is all you need(⑤基于Transformer的翻译模型)
- This post is all you need(⑥基于Transformer的分类模型)
- This post is all you need(⑦基于Transformer的对联模型)
- This post is all you need(层层剥开Transformer)
- 1. BERT原理与NSL和MLM
- 2. 从零实现BERT网络模型
- 3. 基于BERT预训练模型的中文文本分类任务
- 4. 基于BERT预训练模型的英文文本蕴含(MNLI)任务
- 5. 基于BERT预训练模型的英文多选项(SWAG)任务
- 6. 基于BERT预训练模型的英文问答(SQuAD)任务