我注意到在TensorFlow中有两个api与dropout有关,一个是tf.nn.辍学,另一个是tf.layers.dropout(tf.layers.辍学). 我只是想知道目的是什么tf.nn.辍学? 根据https://www.cs.toronto.edu/~hinton/absps/JMLRdropout.pdf,应该有一个参数来区分训练和测试阶段。我懂了tf.layers.dropout(tf.layers.辍学)提供正确的行为,那么为什么要使用另一个函数tf.nn.辍学?有人知道吗?谢谢。在
在tf.layers.dropout(tf.layers.辍学)使用tf.nn.辍学内部运作。在
在tf.nn.辍学如果您只想使用更高级别的抽象而不想控制退出的许多方面,那么可能会很有用。在
查看api文档: 1) https://www.tensorflow.org/api_docs/python/tf/layers/dropout
2)https://www.tensorflow.org/api_docs/python/tf/nn/dropout
在tf.layers.dropout(tf.layers.辍学)是一个包装纸tf.nn.辍学在这方面有一点不同tf.层使用“辍学率”tf.nn公司“使用概率来保持输入”。虽然他们之间可以建立直接的关系。在
还有一个额外的论点“训练”tf.layers.dropout(tf.layers.辍学)它用于控制是在训练模式(apply dropout)还是在推理模式(return the input untouched)下返回输出。在
相关问题 更多 >
编程相关推荐