最近用tensorflow写了个OCR的程序,在实现的过程中,发现自己还是跳了不少坑,在这里做一个记录,便于以后回忆。主要的内容有lstm+ctc具体的输入输出,以及TF中的CTC和百度开源的warpCTC在具体使用中的区别。
正文
输入输出
因为我最后要最小化的目标函数就是ctc_loss
,所以下面就从如何构造输入输出说起。
tf.nn.ctc_loss
先从TF自带的tf.nn.ctc_loss说起,官方给的定义如下,因此我们需要做的就是将图片的label(需要OCR出的结果),图片,以及图片的长度
转换为label,input,和sequence_length。
ctc_loss(
labels,
inputs,
sequence_length,
preprocess_collapse_repeated=False,
ctc_merge_repeated=True,
time_major=True
)
input: 输入(训练)数据,是一个三维float型的数据结构
[max_time_step , batch_size , num_classes]
,当修改time_major = False时,[batch_size,max_time_step,num_classes]
。总体的数据流:
image_batch
->
->
->
->
->
->
image_batch
->
[batch_size,max_time_step,num_features]
->lstm->
[batch_size,max_time_step,cell.output_size]
->reshape->
[batch_size*max_time_step,num_hidden]
->affine projection A*W+b
->
[batch_size*max_time_step,num_classes]
->reshape->
[batch_size,max_time_step,num_classes]
->transpose->
[max_time_step,batch_size,num_classes]
下面详细解释一下,
假如一张图片有如下shape:[60,160,3],我们如果读取灰度图则shape=[60,160],此时,我们将其一列作为feature,那么共有60个features,160个time_step,这时假设一个batch为64,那么我们此时获得到了一个
假如一张图片有如下shape:[60,160,3],我们如果读取灰度图则shape=[60,160],此时,我们将其一列作为feature,那么共有60个features,160个time_step,这时假设一个batch为64,那么我们此时获得到了一个
[batch_size,max_time_step,num_features] = [64,160,60]
的训练数据。然后将该训练数据送入构建的lstm网络中,(需要注意的是dynamic_rnn的输入数据在一个batch内的长度是固定的,但是不同batch之间可以不同,我们需要给他一个
得到形如
sequence_length
(长度为batch_size的向量)来记录本次batch数据的长度,对于OCR这个问题,sequence_length就是长度为64,而值为160的一维向量)得到形如
[batch_size,max_time_step,cell.output_size]
的输出,其中cell.output_size == num_hidden。下面我们需要做一个线性变换将其送入ctc_loos中进行计算,lstm中不同time_step之间共享权值,所以我们只需定义
W
的结构为[num_hidden,num_classes]
,b
的结构为[num_classes]。而tf.matmul操作中,两个矩阵相乘阶数应当匹配,所以我们将上一步的输出reshape成[batch_size*max_time_step,num_hidden]
(num_hidden为自己定义的lstm的unit个数)记为A
,然后将其做一个线性变换,于是A*w+b
得到形如[batch_size*max_time_step,num_classes]
然后在reshape回来得到[batch_size,max_time_step,num_classes]
最后由于ctc_loss的要求,我们再做一次转置,得到[max_time_step,batch_size,num_classes]
形状的数据作为inputlabels: 标签序列
由于OCR的结果是不定长的,所以label实际上是一个稀疏矩阵SparseTensor,
其中:
indices
:二维int64的矩阵,代表非0的坐标点values
:二维tensor,代表indice位置的数据值dense_shape
:一维,代表稀疏矩阵的大小
比如有两幅图,分别是123
,和4567
那么
indecs =[[0,0],[0,1],[0,2],[1,0],[1,1],[1,2],[1,3]]
values = [1,2,3,4,5,6,7]
dense_shape = [2,4]
代表dense tensor:12[[1,2,3,0][4,5,6,7]]
seq_len: 在input一节中已经讲过,一维数据,[time_step,…,time_step]长度为batch_size,值为time_step