如何定义相等logit和标签的交叉熵?

2024-03-28 16:24:34 发布

您现在位置:Python中文网/ 问答频道 /正文

所以基本上我们通常这样定义交叉熵:

dim = 5



logits = tf.random_normal([5,3],dtype=tf.float32)

labels = tf.cast(tf.one_hot(10,5),tf.int32)

cost_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=logits,labels=labels)


with tf.Session() as sess:
    a,b=sess.run([logits,labels])
    print(b)
    print(sess.run(cost_entropy))
    print('\n')
    print(a)

输出:

[0 0 0 0 0]
[1.8559302 2.1816468 2.9526126 1.5903687 2.500083 ]


[[ 0.1913337   0.32995617 -0.23624638]
 [ 0.65993434 -0.2852072  -1.1419022 ]
 [-0.2529132  -0.35611948  0.4710417 ]
 [-0.61094457 -0.76033163 -0.6311429 ]
 [-1.5868235   0.81744194 -0.31859735]]

如果我的登录是:

[[ 0.1913337   0.32995617 -0.23624638]
 [ 0.65993434 -0.2852072  -1.1419022 ]
 [-0.2529132  -0.35611948  0.4710417 ]
 [-0.61094457 -0.76033163 -0.6311429 ]
 [-1.5868235   0.81744194 -0.31859735]]

我的标签和logits的形状一样,比如:

[ [ 0     1   0]
  [ 1     0   1]
  [1      1   0]
  [1      1   1]
  [0      0   0] ]

所以logits中的每个值都有一个0或1(一个热编码),我如何实现这一点?我试过了

 `tf.nn.sparse_softmax_cross_entropy_with_logits` 

以及

`tf.nn.softmax_cross_entropy_with_logits` 

但这是一个错误。你知道吗

更多说明:

假设我的输入是。[ [12 , 14 , 15 ] . , [23 ,24 , 25 ] ]。现在我将得到这个输入的logits,比如。[ [ 0.11 , -0.1 , 0.2 ] , [0.91 0.2 0.12] ]。现在我的标签是这个登录。[ [ 0, 0 , 1 ] , [ 1 , 0 ,1 ] ]。意思是我想要。[0.2]从第一个和[0.91 , 0.12]从第二个

从这个向量[ 0.11 , -0.1 , 0.2 ]。我想要最后一个,所以我的标签是[ 0 , 0 ,1 ] 从这个向量[0.91 0.2 0.12]。我想要第一个和最后一个,所以我想要[ 1, 0, 1]


Tags: runlabelstfwithnn标签向量sess
1条回答
网友
1楼 · 发布于 2024-03-28 16:24:34

似乎你在寻找多标签分类。下面是一个工作示例:

dim = 5

tf.reset_default_graph()

logits = tf.random_normal([2,3],dtype=tf.float32)

labels = tf.Variable([[ 0 , 0 ,1 ], [ 1, 0, 1]], dtype=tf.float32)

cost_entropy = tf.nn.sigmoid_cross_entropy_with_logits(logits=logits,labels=labels)
loss = tf.reduce_sum(tf.reduce_mean(cost_entropy, axis=0))


with tf.Session() as sess:
    tf.global_variables_initializer().run()
    print(sess.run(cost_entropy))
    print(sess.run(loss))

哪个指纹

[[0.68918824 1.1838193  0.40476277]
[1.5736797  0.6862114  0.9196656 ]]
2.4358916

相关问题 更多 >