We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
There was an error while loading. Please reload this page.
1 parent 0102bc6 commit e511fedCopy full SHA for e511fed
docs/chapter03_DL-basics/3.13_dropout.md
@@ -88,7 +88,7 @@ params = [W1, b1, W2, b2, W3, b3]
88
89
### 3.13.2.2 定义模型
90
91
-下面定义的模型将全连接层和激活函数ReLU串起来,并对每个激活函数的输出使用丢弃法。我们可以分别设置各个层的丢弃概率。通常的建议是把靠近输入层的丢弃概率设得小一点。在这个实验中,我们把第一个隐藏层的丢弃概率设为0.2,把第二个隐藏层的丢弃概率设为0.5。我们可以通过参数`is_training`函数来判断运行模式为训练还是测试,并只需在训练模式下使用丢弃法。
+下面定义的模型将全连接层和激活函数ReLU串起来,并对每个激活函数的输出使用丢弃法。我们可以分别设置各个层的丢弃概率。通常的建议是把靠近输入层的丢弃概率设得小一点。在这个实验中,我们把第一个隐藏层的丢弃概率设为0.2,把第二个隐藏层的丢弃概率设为0.5。我们可以通过参数`is_training`来判断运行模式为训练还是测试,并只需在训练模式下使用丢弃法。
92
93
``` python
94
drop_prob1, drop_prob2 = 0.2, 0.5
0 commit comments