Tensorflow估计器ValueError:logits和labels必须具有相同形状((?, 1) vs (?,))

55 投票
7 回答
188664 浏览
提问于 2025-05-18 21:16

我正在用二元交叉熵来对电影评论进行正面或负面的分类。所以,当我试图用TensorFlow的估计器来封装我的Keras模型时,出现了一个错误:

Tensorflow estimator ValueError: logits and labels must have the same shape ((?, 1) vs (?,))

我在最后一层使用了sigmoid激活函数,感觉我可能漏掉了什么简单的东西。有人能帮帮我吗?

from tensorflow import keras
import tensorflow as tf
print("Tensorflow {} loaded".format(tf.__version__))
import numpy as np

keras.__version__
from keras.datasets import imdb

(train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=10000)
def vectorize_sequences(sequences, dimension=10000):
    # Create an all-zero matrix of shape (len(sequences), dimension)
    results = np.zeros((len(sequences), dimension))
    for i, sequence in enumerate(sequences):
        results[i, sequence] = 1.  # set specific indices of results[i] to 1s
    return results.astype('float32')

# Our vectorized training data
x_train = vectorize_sequences(train_data)

# Our vectorized test data
x_test = vectorize_sequences(test_data)

# Our vectorized labels
y_train = np.asarray(train_labels).astype('float32')
y_test = np.asarray(test_labels).astype('float32')

x_val = x_train[:10000]
partial_x_train = x_train[10000:]
y_val = y_train[:10000]
partial_y_train = y_train[10000:]

model = keras.models.Sequential()
model.add(keras.layers.Dense(16, activation='relu', input_shape=(10000,), name='reviews'))
model.add(keras.layers.Dense(16, activation='relu'))
model.add(keras.layers.Dense(1, activation='sigmoid'))
model.compile(optimizer='rmsprop',
              loss='binary_crossentropy',
              metrics=['accuracy'])
estimator_model = keras.estimator.model_to_estimator(keras_model=model)

def input_function(features,labels=None,shuffle=False,epochs=None,batch_size=None):
    input_fn = tf.estimator.inputs.numpy_input_fn(
        x={"reviews_input": features},
        y=labels,
        shuffle=shuffle,
        num_epochs=epochs,
        batch_size=batch_size
    )
    return input_fn

estimator_model.train(input_fn=input_function(partial_x_train, partial_y_train, True,20,512))
score = estimator_model.evaluate(input_function(x_val, labels=y_val))
print(score)

相关问题:

  • 暂无相关问题
暂无标签

7 个回答

6

如果你在做二元交叉熵(binary cross-entropy),那么你的数据集可能有两个类别。出现错误的原因是你的标签向量(无论是在测试还是训练时)看起来像这样:[0,1,0,1,1,1,0,0,1,...]。为了把二元标签转换成独热编码(one-hot encoding),可以使用下面这个函数:Labels = tf.one_hot(Labels, depth=2)

12

我们可以通过在全连接层后面加一个“扁平化”层,来让输出的形状和标签的维度匹配,从而解决这个问题:

model.add(Flatten())

或者可以添加:

model.add(GlobalAveragePooling2D())

查看这个GitHub问题以获取详细信息

15

使用 model.summary() 来检查你的网络。

你最终需要简化网络,以确保输出和你的分类数量一致。比如说,如果你要做数字识别(OCR),最后的输出层应该是 Dense(10),因为你要识别的数字是从 0 到 9。

再比如,区分狗和猫的任务,最后一层就需要有两个输出,一个代表狗(0),另一个代表猫(1)。

29

如果你在做二分类(也就是把东西分成两类),那么确保你最后一层的Dense层的形状是(None, 1),而不是(None, 2)。

tf.keras.layers.Dense(1, activation="sigmoid") # binary activation output
42

你应该把你的标签调整成一个二维的张量(第一个维度是批次维度,第二个维度是标量标签):

# Our vectorized labels
y_train = np.asarray(train_labels).astype('float32').reshape((-1,1))
y_test = np.asarray(test_labels).astype('float32').reshape((-1,1))

撰写回答