所以基本上我们通常这样定义交叉熵:
dim = 5
logits = tf.random_normal([5,3],dtype=tf.float32)
labels = tf.cast(tf.one_hot(10,5),tf.int32)
cost_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=logits,labels=labels)
with tf.Session() as sess:
a,b=sess.run([logits,labels])
print(b)
print(sess.run(cost_entropy))
print('\n')
print(a)
输出:
[0 0 0 0 0]
[1.8559302 2.1816468 2.9526126 1.5903687 2.500083 ]
[[ 0.1913337 0.32995617 -0.23624638]
[ 0.65993434 -0.2852072 -1.1419022 ]
[-0.2529132 -0.35611948 0.4710417 ]
[-0.61094457 -0.76033163 -0.6311429 ]
[-1.5868235 0.81744194 -0.31859735]]
如果我的登录是:
[[ 0.1913337 0.32995617 -0.23624638]
[ 0.65993434 -0.2852072 -1.1419022 ]
[-0.2529132 -0.35611948 0.4710417 ]
[-0.61094457 -0.76033163 -0.6311429 ]
[-1.5868235 0.81744194 -0.31859735]]
我的标签和logits的形状一样,比如:
[ [ 0 1 0]
[ 1 0 1]
[1 1 0]
[1 1 1]
[0 0 0] ]
所以logits中的每个值都有一个0或1(一个热编码),我如何实现这一点?我试过了
`tf.nn.sparse_softmax_cross_entropy_with_logits`
以及
`tf.nn.softmax_cross_entropy_with_logits`
但这是一个错误。你知道吗
更多说明:
假设我的输入是。[ [12 , 14 , 15 ] . , [23 ,24 , 25 ] ]
。现在我将得到这个输入的logits,比如。[ [ 0.11 , -0.1 , 0.2 ] , [0.91 0.2 0.12] ]
。现在我的标签是这个登录。[ [ 0, 0 , 1 ] , [ 1 , 0 ,1 ] ]
。意思是我想要。[0.2]
从第一个和[0.91 , 0.12]
从第二个
从这个向量[ 0.11 , -0.1 , 0.2 ]
。我想要最后一个,所以我的标签是[ 0 , 0 ,1 ]
从这个向量[0.91 0.2 0.12]
。我想要第一个和最后一个,所以我想要[ 1, 0, 1]
似乎你在寻找多标签分类。下面是一个工作示例:
哪个指纹
相关问题 更多 >
编程相关推荐