如何将TensorFlow示例队列分为适当的批进行培训?
我有一些图片和标签:
IMG_6642.JPG 1
IMG_6643.JPG 2
(请随意建议其他标签格式;我想我可能需要另一个密集到稀疏的步骤…)
我已经读完了不少教程,但还没有全部读完。 下面是我所拥有的,其中的注释指出了TensorFlow的Reading Data页面所需的步骤。
在示例队列之后,我需要将这个队列成批地进行训练;这就是我陷入困境的地方。。。
1。文件名列表
files = tf.train.match_filenames_once('*.JPG')
4。文件名队列
filename_queue = tf.train.string_input_producer(files, num_epochs=None, shuffle=True, seed=None, shared_name=None, name=None)
5。读者
reader = tf.TextLineReader()
key, value = reader.read(filename_queue)
6个。解码器
record_defaults = [[""], [1]]
col1, col2 = tf.decode_csv(value, record_defaults=record_defaults)
(我想我不需要下面这一步,因为我已经有了张量的标签,但无论如何我都包括了它)
features = tf.pack([col2])
文档页面有一个运行一个图像的示例,而不是将图像和标签成批获取:
for i in range(1200):
# Retrieve a single instance:
example, label = sess.run([features, col5])
然后在下面有一个批处理部分:
def read_my_file_format(filename_queue):
reader = tf.SomeReader()
key, record_string = reader.read(filename_queue)
example, label = tf.some_decoder(record_string)
processed_example = some_processing(example)
return processed_example, label
def input_pipeline(filenames, batch_size, num_epochs=None):
filename_queue = tf.train.string_input_producer(
filenames, num_epochs=num_epochs, shuffle=True)
example, label = read_my_file_format(filename_queue)
# min_after_dequeue defines how big a buffer we will randomly sample
# from -- bigger means better shuffling but slower start up and more
# memory used.
# capacity must be larger than min_after_dequeue and the amount larger
# determines the maximum we will prefetch. Recommendation:
# min_after_dequeue + (num_threads + a small safety margin) * batch_size
min_after_dequeue = 10000
capacity = min_after_dequeue + 3 * batch_size
example_batch, label_batch = tf.train.shuffle_batch(
[example, label], batch_size=batch_size, capacity=capacity,
min_after_dequeue=min_after_dequeue)
return example_batch, label_batch
我的问题是:如何将上面的示例代码与上面的代码一起使用?我需要批处理才能使用,而且大多数教程都已经附带了mnist批处理。
with tf.Session() as sess:
sess.run(init)
# Training cycle
for epoch in range(training_epochs):
total_batch = int(mnist.train.num_examples/batch_size)
# Loop over all batches
for i in range(total_batch):
batch_xs, batch_ys = mnist.train.next_batch(batch_size)
如果您想让这个输入管道工作,您将需要添加一个异步队列机制来生成成批的示例。这是通过创建
tf.RandomShuffleQueue
或tf.FIFOQueue
并插入已读取、解码和预处理的JPEG图像来执行的。您可以使用方便的构造来生成队列和相应的线程,以便通过
tf.train.shuffle_batch_join
或tf.train.batch_join
运行队列。这里有一个简单的例子说明这是什么。请注意,此代码未经测试:根据需要扩展作业的方式,可能需要运行多个独立线程来读取/解码/预处理图像并将其转储到示例队列中。在Inception/ImageNet模型中提供了这样一个管道的完整示例。看看
batch_inputs
:https://github.com/tensorflow/models/blob/master/inception/inception/image_processing.py#L407
最后,如果使用的是>;O(1000)JPEG图像,请记住,单独准备1000个小文件是非常低效的。这会使你的训练慢很多。
将图像数据集转换为
Example
协议的分片TFRecord
的一种更健壮、更快的解决方案。这里有一个完全工作过的script用于将ImageNet数据集转换为这样的格式。这里有一组instructions用于在包含JPEG图像的任意目录上运行此预处理脚本的通用版本。相关问题 更多 >
编程相关推荐