改进神经网络一次预测3个实例

2024-04-25 07:57:53 发布

您现在位置:Python中文网/ 问答频道 /正文

我这里有一个卷积神经网络,它拍一张96x96x3的图片,输出1x128的编码。(未定义的函数只是一系列层)

如何修改体系结构以获得3x96x96x3输入并生成3x128输出(使用相同参数向前传播3次)?你知道吗

def faceRecoModel(input_shape):
    """
    Implementation of the Inception model used for FaceNet

    Arguments:
    input_shape -- shape of the images of the dataset

    Returns:
    model -- a Model() instance in Keras
    """

    # Define the input as a tensor with shape input_shape
    X_input = Input(input_shape)

    # Zero-Padding
    X = ZeroPadding2D((3, 3))(X_input)

    # First Block
    X = Conv2D(64, (7, 7), strides=(2, 2), name='conv1')(X)
    X = BatchNormalization(axis=1, name='bn1')(X)
    X = Activation('relu')(X)

    # Zero-Padding + MAXPOOL
    X = ZeroPadding2D((1, 1))(X)
    X = MaxPooling2D((3, 3), strides=2)(X)

    # Second Block
    X = Conv2D(64, (1, 1), strides=(1, 1), name='conv2')(X)
    X = BatchNormalization(axis=1, epsilon=0.00001, name='bn2')(X)
    X = Activation('relu')(X)

    # Zero-Padding + MAXPOOL
    X = ZeroPadding2D((1, 1))(X)

    # Second Block
    X = Conv2D(192, (3, 3), strides=(1, 1), name='conv3')(X)
    X = BatchNormalization(axis=1, epsilon=0.00001, name='bn3')(X)
    X = Activation('relu')(X)

    # Zero-Padding + MAXPOOL
    X = ZeroPadding2D((1, 1))(X)
    X = MaxPooling2D(pool_size=3, strides=2)(X)

    # Inception 1: a/b/c
    X = inception_block_1a(X)
    X = inception_block_1b(X)
    X = inception_block_1c(X)

    # Inception 2: a/b
    X = inception_block_2a(X)
    X = inception_block_2b(X)

    # Inception 3: a/b
    X = inception_block_3a(X)
    X = inception_block_3b(X)

    # Top layer
    X = AveragePooling2D(pool_size=(3, 3), strides=(1, 1), data_format='channels_first')(X)
    X = Flatten()(X)
    X = Dense(128, name='dense_layer')(X)

    # L2 normalization
    X = Lambda(lambda x: K.l2_normalize(x, axis=1))(X)

    # Create model instance
    model = Model(inputs=X_input, outputs=X, name='FaceRecoModel')

    return model

Tags: ofthenameinputmodelblockshapepadding
3条回答

您不需要修改任何东西,Keras中输入的第一个维度始终是batch维度,因此您实际上需要输入shape(3, 96, 96, 3),您将得到相应的输出(3, 128)。不需要修改代码。你知道吗

编辑:正如op所提到的,网络应该一次处理3个图像,因为数据集是形状(m,3,96,96,3),那么一个简单的方法是以并行方式创建三个标准的初始网络,然后连接从每个网络接收的输出。你知道吗

如果您想获取形状(batch_size, 3, 96, 96, 3)的输入,即将3个图像作为单个输入样本进行处理,则需要创建一个新模型,该模型使用经过训练的模型,并将其独立地应用于这3个图像中的每一个。您可以使用Keras中的^{}包装器轻松实现这一点:

from keras.layers import TimeDistributed

inp = Input(shape=(3, 96, 96, 3))
out = TimeDistributed(the_trained_face_rec_model)(inp)

model = Model(inp, out)

这个新模型的输出具有(batch_size, 3, 128)的形状。不需要编译或训练这个新模型,因为它只是以前训练过的模型的包装器。所以你可以使用:predictions = model.predict(my_images)。你知道吗

相关问题 更多 >

    热门问题