fast.ai 深度学习笔记:第一部分第四课

  • 时间:
  • 浏览:5
  • 来源:大发快3官方网址—大发快3APP下载

学生的文章:

(3): ReLU - 本来 用零替换负数

(6): Linear - 第六个线性层,原先六个多多多线性层获取 512 个激活并将它们乘以 512 乘 120 的新矩阵并输出 120 个激活

(7): Softmax - 激活函数,返回最大为 1 的数字,每个数字在 0 和 1 之间:

作者:Hiromi Suenaga

(2): Linear层仅仅是矩阵乘法。 这是六个多多多带有 1024 行和 512 列的矩阵,如果它将接受 1024 个激活并输出 512 个激活。

原文:Deep Learning 2: Part 1 Lesson 4

(0),(4): BatchNorm将在上一课中介绍

(1),(5):Dropout

出于较小的数值精度原因分析,事实证明最好直接使用 softmax 的 log 而都要 softmax [15:03]。这本来 为甚当大伙儿 从模型中得到预测时,大伙儿 都要执行np.exp(log_preds)

learn - 这将显示大伙儿 最后打上去的层。 什么是大伙儿 在precompute=True时训练的层