Tensorflow估计器ValueError:logits和labels必须具有相同形状((?, 1) vs (?,))
我正在用二元交叉熵来对电影评论进行正面或负面的分类。所以,当我试图用TensorFlow的估计器来封装我的Keras模型时,出现了一个错误:
Tensorflow estimator ValueError: logits and labels must have the same shape ((?, 1) vs (?,))
我在最后一层使用了sigmoid激活函数,感觉我可能漏掉了什么简单的东西。有人能帮帮我吗?
from tensorflow import keras
import tensorflow as tf
print("Tensorflow {} loaded".format(tf.__version__))
import numpy as np
keras.__version__
from keras.datasets import imdb
(train_data, train_labels), (test_data, test_labels) = imdb.load_data(num_words=10000)
def vectorize_sequences(sequences, dimension=10000):
# Create an all-zero matrix of shape (len(sequences), dimension)
results = np.zeros((len(sequences), dimension))
for i, sequence in enumerate(sequences):
results[i, sequence] = 1. # set specific indices of results[i] to 1s
return results.astype('float32')
# Our vectorized training data
x_train = vectorize_sequences(train_data)
# Our vectorized test data
x_test = vectorize_sequences(test_data)
# Our vectorized labels
y_train = np.asarray(train_labels).astype('float32')
y_test = np.asarray(test_labels).astype('float32')
x_val = x_train[:10000]
partial_x_train = x_train[10000:]
y_val = y_train[:10000]
partial_y_train = y_train[10000:]
model = keras.models.Sequential()
model.add(keras.layers.Dense(16, activation='relu', input_shape=(10000,), name='reviews'))
model.add(keras.layers.Dense(16, activation='relu'))
model.add(keras.layers.Dense(1, activation='sigmoid'))
model.compile(optimizer='rmsprop',
loss='binary_crossentropy',
metrics=['accuracy'])
estimator_model = keras.estimator.model_to_estimator(keras_model=model)
def input_function(features,labels=None,shuffle=False,epochs=None,batch_size=None):
input_fn = tf.estimator.inputs.numpy_input_fn(
x={"reviews_input": features},
y=labels,
shuffle=shuffle,
num_epochs=epochs,
batch_size=batch_size
)
return input_fn
estimator_model.train(input_fn=input_function(partial_x_train, partial_y_train, True,20,512))
score = estimator_model.evaluate(input_function(x_val, labels=y_val))
print(score)
相关问题:
- 暂无相关问题
7 个回答
6
如果你在做二元交叉熵(binary cross-entropy),那么你的数据集可能有两个类别。出现错误的原因是你的标签向量(无论是在测试还是训练时)看起来像这样:[0,1,0,1,1,1,0,0,1,...]。为了把二元标签转换成独热编码(one-hot encoding),可以使用下面这个函数:Labels = tf.one_hot(Labels, depth=2)
12
我们可以通过在全连接层后面加一个“扁平化”层,来让输出的形状和标签的维度匹配,从而解决这个问题:
model.add(Flatten())
或者可以添加:
model.add(GlobalAveragePooling2D())
15
使用 model.summary() 来检查你的网络。
你最终需要简化网络,以确保输出和你的分类数量一致。比如说,如果你要做数字识别(OCR),最后的输出层应该是 Dense(10),因为你要识别的数字是从 0 到 9。
再比如,区分狗和猫的任务,最后一层就需要有两个输出,一个代表狗(0),另一个代表猫(1)。
29
如果你在做二分类(也就是把东西分成两类),那么确保你最后一层的Dense层的形状是(None, 1),而不是(None, 2)。
tf.keras.layers.Dense(1, activation="sigmoid") # binary activation output
42
你应该把你的标签调整成一个二维的张量(第一个维度是批次维度,第二个维度是标量标签):
# Our vectorized labels
y_train = np.asarray(train_labels).astype('float32').reshape((-1,1))
y_test = np.asarray(test_labels).astype('float32').reshape((-1,1))