Tensorflow读取数据的一般方式有下面3种:
- preloaded直接创建变量:在tensorflow定义图的过程中,创建常量或变量来存储数据
- feed:在运行程序时,通过feed_dict传入数据
- reader从文件中读取数据:在tensorflow图开始时,通过一个输入管线从文件中读取数据
Preloaded方法的简单例子
1 import tensorflow as tf 2 3 """定义常量""" 4 const_var = tf.constant([1, 2, 3]) 5 """定义变量""" 6 var = tf.Variable([1, 2, 3]) 7 8 with tf.Session() as sess: 9 sess.run(tf.global_variables_initializer()) 10 print(sess.run(var)) 11 print(sess.run(const_var))
Feed方法
可以在tensorflow运算图的过程中,将数据传递到事先定义好的placeholder中。方法是在调用session.run函数时,通过feed_dict参数传入。简单例子:
1 import tensorflow as tf 2 """定义placeholder""" 3 x1 = tf.placeholder(tf.int16) 4 x2 = tf.placeholder(tf.int16) 5 result = x1 + x2 6 """定义feed_dict""" 7 feed_dict = { 8 x1: [10], 9 x2: [20] 10 } 11 """运行图""" 12 with tf.Session() as sess: 13 print(sess.run(result, feed_dict=feed_dict))
上面的两个方法在面对大量数据时,都存在性能问题。这时候就需要使用到第3种方法,文件读取,让tensorflow自己从文件中读取数据
从文件中读取数据
图引用自 https://zhuanlan.zhihu.com/p/27238630
步骤:
- 获取文件名列表list
- 创建文件名队列,调用tf.train.string_input_producer,参数包含:文件名列表,num_epochs【定义重复次数】,shuffle【定义是否打乱文件的顺序】
- 定义对应文件的阅读器>* tf.ReaderBase >* tf.TFRecordReader >* tf.TextLineReader >* tf.WholeFileReader >* tf.IdentityReader >* tf.FixedLengthRecordReader
- 解析器 >* tf.decode_csv >* tf.decode_raw >* tf.image.decode_image >* …
- 预处理,对原始数据进行处理,以适应network输入所需
- 生成batch,调用tf.train.batch() 或者 tf.train.shuffle_batch()
- prefetch【可选】使用预加载队列slim.prefetch_queue.prefetch_queue()
- 启动填充队列的线程,调用tf.train.start_queue_runners
图引用自http://www.yyliu.cn/post/89458415.html
读取文件格式举例
tensorflow支持读取的文件格式包括:CSV文件,二进制文件,TFRecords文件,图像文件,文本文件等等。具体使用时,需要根据文件的不同格式,选择对应的文件格式阅读器,再将文件名队列传为参数,传入阅读器的read方法中。方法会返回key与对应的record value。将value交给解析器进行解析,转换成网络能进行处理的tensor。
CSV文件读取:
阅读器:tf.TextLineReader
解析器:tf.decode_csv
1 filename_queue = tf.train.string_input_producer(["file0.csv", "file1.csv"]) 2 """阅读器""" 3 reader = tf.TextLineReader() 4 key, value = reader.read(filename_queue) 5 """解析器""" 6 record_defaults = [[1], [1], [1], [1]] 7 col1, col2, col3, col4 = tf.decode_csv(value, record_defaults=record_defaults) 8 features = tf.concat([col1, col2, col3, col4], axis=0) 9 10 with tf.Session() as sess: 11 coord = tf.train.Coordinator() 12 threads = tf.train.start_queue_runners(coord=coord) 13 for i in range(100): 14 example = sess.run(features) 15 coord.request_stop() 16 coord.join(threads)
二进制文件读取:
阅读器:tf.FixedLengthRecordReader
解析器:tf.decode_raw
图像文件读取:
阅读器:tf.WholeFileReader
解析器:tf.image.decode_image, tf.image.decode_gif, tf.image.decode_jpeg, tf.image.decode_png
TFRecords文件读取
TFRecords文件是tensorflow的标准格式。要使用TFRecords文件读取,事先需要将数据转换成TFRecords文件,具体可察看:convert_to_records.py 在这个脚本中,先将数据填充到tf.train.Example协议内存块(protocol buffer),将协议内存块序列化为字符串,再通过tf.python_io.TFRecordWriter写入到TFRecords文件中去。
阅读器:tf.TFRecordReader
解析器:tf.parse_single_example
又或者使用slim提供的简便方法:slim.dataset.Data以及slim.dataset_data_provider.DatasetDataProvider方法
1 def get_split(record_file_name, num_sampels, size): 2 reader = tf.TFRecordReader 3 4 keys_to_features = { 5 "image/encoded": tf.FixedLenFeature((), tf.string, ''), 6 "image/format": tf.FixedLenFeature((), tf.string, 'jpeg'), 7 "image/height": tf.FixedLenFeature([], tf.int64, tf.zeros([], tf.int64)), 8 "image/width": tf.FixedLenFeature([], tf.int64, tf.zeros([], tf.int64)), 9 } 10 11 items_to_handlers = { 12 "image": slim.tfexample_decoder.Image(shape=[size, size, 3]), 13 "height": slim.tfexample_decoder.Tensor("image/height"), 14 "width": slim.tfexample_decoder.Tensor("image/width"), 15 } 16 17 decoder = slim.tfexample_decoder.TFExampleDecoder( 18 keys_to_features, items_to_handlers 19 ) 20 return slim.dataset.Dataset( 21 data_sources=record_file_name, 22 reader=reader, 23 decoder=decoder, 24 items_to_descriptions={}, 25 num_samples=num_sampels 26 ) 27 28 29 def get_image(num_samples, resize, record_file="image.tfrecord", shuffle=False): 30 provider = slim.dataset_data_provider.DatasetDataProvider( 31 get_split(record_file, num_samples, resize), 32 shuffle=shuffle 33 ) 34 [data_image] = provider.get(["image"]) 35 return data_image
参考资料:
tensorflow 1.0 学习:十图详解tensorflow数据读取机制