我在一篇研究论文的基础上建立了一个深入的CNN,现在我正试图训练它。在我完成了所有的卷积和反褶积之后,我得到了一个叫做final的结果。在
final = tf.add(add1,add2)
print(final)
Tensor("Add_35:0", shape=(1, 32, 32, 7, 1), dtype=float32)
在我的模型中,我有一个32x32x7大小的图像,其中每个像素都有相应的密度。模型的输出将是每个像素的标签。因此,我声明了两个占位符,其中“x”表示输入,“y”表示输出。在
^{pr2}$现在我正试着训练模特,我有了这条线
cross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y_, logits=final))
当模型正在训练时,我收到一个错误:logits和labels的大小必须相同:logits_size=[7168,1]labels_size=[17168] 标签的大小应该是这样,因为我是这样声明的。但是,我不明白为什么当打印出“final”的形状是(1,32,32,7,1)时,logits的大小是[7168,1]。
只要^{} 你的
final
:虽然我不知道为什么当您调用
softmax_cross_entropy_with_logits
时它会自动变平。。。在相关问题 更多 >
编程相关推荐