擅长:python、mysql、java
<p>softmax_cross_entropy_with_logits()和accurity是两个不同的概念,具有不同的公式定义。在正常情况下,我们可以通过最小化软最大交叉熵来获得更高的精度,但它们是以不同的方式计算的,因此我们不能期望它们总是以同步的方式增加或减少。</p>
<p>我们在CNN中使用了softmax交叉熵,因为它对神经网络训练是有效的。如果我们使用loss=(1-准确度)作为损失函数,用我们目前成熟的回溯训练方案来调整CNN神经网络的权值很难得到更好的结果,我真的做到了,并且证实了这个结论,你也可以自己尝试。可能是因为我们目前的落后训练方案,可能是因为我们的神经元定义(我们需要把它改成其他类型的神经元?)但是无论如何,目前在损失函数中使用精度并不是神经元网络训练的有效方法,所以正如那些人工智能科学家告诉我们的那样,使用softmax_cross_entropy_with_logits(),他们已经证实了这种方法是有效的,对于其他方法,我们还不知道。</p>