Skip to content

Commit

Permalink
summary (d2l-ai#671)
Browse files Browse the repository at this point in the history
  • Loading branch information
goldmermaid authored Feb 23, 2021
1 parent 602b53c commit da3f20f
Show file tree
Hide file tree
Showing 9 changed files with 9 additions and 9 deletions.
2 changes: 1 addition & 1 deletion chapter_linear-networks/image-classification-dataset.md
Original file line number Diff line number Diff line change
Expand Up @@ -269,7 +269,7 @@ for X, y in train_iter:

我们现在已经准备好在下面的章节中使用Fashion-MNIST数据集。

## 总结
## 小结

* Fashion-MNIST是一个服装分类数据集,由10个类别的图像组成。我们将在后续章节中使用此数据集来评估各种分类算法。
* 我们将高度$h$像素,宽度$w$像素图像的形状记为$h \times w$或($h$, $w$)。
Expand Down
2 changes: 1 addition & 1 deletion chapter_linear-networks/linear-regression-concise.md
Original file line number Diff line number Diff line change
Expand Up @@ -316,7 +316,7 @@ b = net.get_weights()[1]
print('b的估计误差:', true_b - b)
```

## 总结
## 小结

:begin_tab:`mxnet`
* 我们可以使用Gluon更简洁地实现模型。
Expand Down
2 changes: 1 addition & 1 deletion chapter_linear-networks/linear-regression.md
Original file line number Diff line number Diff line change
Expand Up @@ -307,7 +307,7 @@ $$-\log P(\mathbf y \mid \mathbf X) = \sum_{i=1}^n \frac{1}{2} \log(2 \pi \sigma
*Artificial Intelligence: A Modern Approach* :cite:`Russell.Norvig.2016`,
中所说:虽然飞机可能受到鸟类的启发。但几个世纪以来,鸟类学并不是航空创新的主要驱动力。同样地,如今在深度学习中的灵感同样或更多地来自数学、统计学和计算机科学。

## 总结
## 小结

* 机器学习模型中的关键要素是训练数据,损失函数,优化算法,还有模型本身。
* 矢量化使数学表达上更简洁,同时运行的更快。
Expand Down
2 changes: 1 addition & 1 deletion chapter_linear-networks/softmax-regression-concise.md
Original file line number Diff line number Diff line change
Expand Up @@ -127,7 +127,7 @@ d2l.train_ch3(net, train_iter, test_iter, loss, num_epochs, trainer)

和以前一样,这个算法收敛到一个相当高的精度,而且这次的代码行比以前少了。

## 总结
## 小结

* 使用高级 API,我们可以更简洁地实现 softmax 回归。
* 从计算的角度来看,实现softmax回归比较复杂。在许多情况下,深度学习框架在这些著名的技巧之外采取了额外的预防措施,来确保数值的稳定性。这使我们避免了在实践中从零开始编写模型时可能遇到的陷阱。
Expand Down
2 changes: 1 addition & 1 deletion contrib/chapter_recommender-systems/autorec.md
Original file line number Diff line number Diff line change
Expand Up @@ -104,7 +104,7 @@ d2l.train_recsys_rating(net, train_iter, test_iter, loss, trainer, num_epochs,
ctx, evaluator, inter_mat=test_inter_mat)
```

## 总结
## 小结

* 我们可以使用自动编码器构建矩阵分解算法,同时还可以在其中整合非线性层和dropout正则化层。
* MovieLens-100K数据集上的实验表明,自动编码器的性能优于矩阵分解模型。
Expand Down
2 changes: 1 addition & 1 deletion contrib/chapter_recommender-systems/ctr.md
Original file line number Diff line number Diff line change
Expand Up @@ -87,7 +87,7 @@ train_data[0]

如你所见,这34个字段都是分类特征。每个数值都代表了对应条目的独热索引,标签$0$表示没有被点击。这里的`CTRDataset`也可以用来加载其他的数据集,例如Criteo展示广告挑战赛[数据集](https://labs.criteo.com/2014/02/kaggle-display-advertising-challenge-dataset/)和Avazu点击率预测[数据集](https://www.kaggle.com/c/avazu-ctr-prediction)

## 总结
## 小结

* 点击率是一项很重要的指标,它能用于评估广告系统和推荐系统的性能。
* 点击率预测经常被转化为二分类问题。该问题的目标是,在给定特征后,预测广告或物品是否会被点击。
Expand Down
2 changes: 1 addition & 1 deletion contrib/chapter_recommender-systems/fm.md
Original file line number Diff line number Diff line change
Expand Up @@ -95,7 +95,7 @@ loss = gluon.loss.SigmoidBinaryCrossEntropyLoss()
d2l.train_ch13(net, train_iter, test_iter, loss, trainer, num_epochs, ctx)
```

## 总结
## 小结

* 因子分解机是一种通用框架,它可以应用在回归、分类和排序等一系列不同的任务上。
* 对于预测任务来说,特征交互/交叉非常重要,而使用因子分解机可以高效地建模双路特征交互。
Expand Down
2 changes: 1 addition & 1 deletion contrib/chapter_recommender-systems/mf.md
Original file line number Diff line number Diff line change
Expand Up @@ -154,7 +154,7 @@ scores = net(np.array([20], dtype='int', ctx=d2l.try_gpu()),
scores
```

## 总结
## 小结

* 矩阵分解模型在推荐系统中有着广泛的应用。它可以用于预测用户对物品的评分。
* 我们可以为推荐系统实现和训练一个矩阵分解模型。
Expand Down
2 changes: 1 addition & 1 deletion contrib/chapter_recommender-systems/movielens.md
Original file line number Diff line number Diff line change
Expand Up @@ -140,7 +140,7 @@ def split_and_load_ml100k(split_mode='seq-aware', feedback='explicit',
return num_users, num_items, train_iter, test_iter
```

## 总结
## 小结

* MovieLens广泛用于推荐系统研究。它是免费且公开可用的。
* 为了能在后续章节中使用,我们定义了一些函数用来下载和预处理MovieLens-100k数据集。
Expand Down

0 comments on commit da3f20f

Please sign in to comment.