我有一堆JSON数组文件(准确地说是AVRO),每个文件都产生多个样本来训练Keras模型。通过使用@GPhilo和jsimsa的想法,我能够想到这一点来并行化我的输入管道。无法弄清楚如何设计generator(n)来划分处理文件的工作。代码内部失败,parse_file(f)因为该函数需要一个字符串文件路径而不是一个Tensor,
generator(n)
parse_file(f)
Tensor
N = num_cores = 2 files_to_process = ["f1.avro", "f2.avro", "f3.avro"] shuffle_size = prefetch_buffer = 1000 batch_size = 512 def generator(n): size = math.ceil(len(files_to_process) / N) start_index = n * size end_index = start_index + size def gen(): # for f in files_to_process[start_index:end_index]: for f in tf.slice(files_to_process, start_index, size): yield f return gen def dataset(n): return tf.data.Dataset.from_generator(generator(n), (tf.string,)) def process_file(f): examples_x, examples_y = parse_file(f) return examples_x, examples_y ds = tf.data.Dataset.range(N) ds = ds.apply(tf.contrib.data.parallel_interleave(dataset, cycle_length=N)) ds = ds.map(process_file, num_parallel_calls=N) ds = ds.prefetch(prefetch_buffer) ds = ds.flat_map(lambda *x: tf.data.Dataset.from_tensor_slices(x)) ds = ds.batch(batch_size).shuffle(shuffle_size) ... myTfKerasModel.fit( ds.make_one_iterator(), NUM_TRAIN_SAMPLES // batch_size )
parallel_interleave
flat_map
在我看来,发电机不必要地使您的生活变得复杂。这就是我实现您的输入管道的方式:
def parse_file_tf(filename): return tf.py_func(parse_file, [filename], [tf.float32, tf.float32]) # version with map files = tf.data.Dataset.from_tensor_slices(files_to_process) dataset = files.map(parse_file_tf, num_parallel_calls=N) dataset = dataset.flat_map(lambda *x: tf.data.Dataset.from_tensor_slices(x)) dataset = dataset.batch(batch_size).shuffle(shuffle_size).prefetch(2) it = dataset.make_one_shot_iterator()
为了测试它,我定义一个虚拟对象parse_file为:
parse_file
i=0 def parse_file(f): global i i += 1 return np.asarray([i]*i, dtype=np.float32), np.asarray([i]*i, dtype=np.float32) # mimicks variable-length examples_x, examples_y
我输入了一个基本循环,该循环显示了迭代器返回的内容:
sess = tf.Session() try: while True: x, y = it.get_next() vx, vy = sess.run([x,y]) print(vx) print(vy) except tf.errors.OutOfRangeError: pass sess.close()
运行上面的代码可以打印:
[2. 3. 2. 1. 3. 3.] [2. 3. 2. 1. 3. 3.]
本质上,我将并行化问题留给map,可以在其中传递应运行的线程数。无需生成器迭代范围和那些额外的复杂性。
map
我选择map overparallel_interleave是因为map要求您为Dataset返回的每个项生成一个实例,在您的情况下,这实际上没有任何意义,因为在运行时已将所有值加载到内存中parse_file。 parallel_interleave如果您缓慢地生成值(例如,通过应用tf.data.TFRecordDataset到文件名列表)会很有意义,但是如果您的数据集适合内存,请使用map。
Dataset
tf.data.TFRecordDataset
关于tf.py_func限制,它们不会影响您训练有素的网络,只会影响输入管道。理想情况下,您将为培训和网络的最终使用使用不同的管道。您只需要注意后者的局限性,而对于培训(除非您使用分布式培训和/或在机器之间移动培训进行非常具体的操作),则可以相当安全地进行。
tf.py_func
如果您的JSON文件很大,并且其内容无法容纳在内存中,则可以使用生成器,但与您最初使用的方法略有不同。这个想法是,生成器遍历JSON文件并yield一次记录一个记录。然后,生成器必须是您的parse_file功能。例如,假设您具有以下parse_file生成器:
yield
i = 3 def parse_file(filename): global i i += 1 ctr = 0 while ctr < i: yield ctr, ctr
在这种情况下,管道如下所示:
def wrap_generator(filename): return tf.data.Dataset.from_generator(parse_file(filename), [tf.int32, tf.int32]) files = tf.data.Dataset.from_tensor_slices(files_to_process) dataset = files.apply(tf.contrib.data.parallel_interleave(wrap_generator, cycle_length=N)) dataset = dataset.flat_map(lambda *x: tf.data.Dataset.from_tensor_slices(x)) dataset = dataset.shuffle(shuffle_size).batch(batch_size).prefetch(2) it = dataset.make_one_shot_iterator()
请注意,此处需要使用,parallel_interleave因为我们将生成器转换Dataset为从中提取值的实例。其余的保持不变。
将其馈送到与上述相同的示例循环中:
[6. 5. 4. 4. 6. 5. 6. 6. 5. 4. 6. 4. 5. 5. 6.] [6. 5. 4. 4. 6. 5. 6. 6. 5. 4. 6. 4. 5. 5. 6.]