练手项目之image caption问题记录

20191230更新:

根据github上一位大神的作品,使用PyTorch框架,采用 Encoder-Decoder + Attention 方法重新完成image caption。当采用大小为3的Beam Search方式进行推理时,BLEU-4效果可以达到31%以上。在Flicker8K中随机抽几张图片试试效果,以下分别为原图和预测图。




可以看到语法和语义效果都很不错,直观感受比上次好太多。先占个坑,等有时间再把过程详细整理一下。

以下是2019年8月份记录

小白一个,刚刚费了老大的劲完成一个练手项目——image caption,虽然跑通训练,但是结果却惨不忍睹。于是贴上大神的作品,留待日后慢慢消化。顺便记录下自己踩坑的一些问题。

先膜拜下大神的作品。

本次项目采用的模型结构如下。一路输入信息是利用VGG16提取的图像特征,另一路输入信息是利用LSTM提取的单词串特征,输出是预测的下一个单词。即模型的功能是,在给定图像特征和caption前面若干个单词的情况下,能预测出caption的下一个单词;所以循环若干次后即可得到一句完整的caption。采用的数据集是Flicker8K。

目前效果不怎么好,虽然BLEU4结果为17%,能完整输出一句话,但大部分只能识别出狗、草地等这种特别明显的特征,出现不少张冠李戴的描述,甚至于有些句子一直重复这些特征直到被截断,直观感受很不如意。暂认为可以从这几个方面进行改进:试试其他模型结构(比如Seq2Seq等),增加注意力机制,采用更大的数据集,网络调参。

问题目录

交叉验证

Bleu评价

迭代生成器问题(yield/next/send/generator)

Embedding层

模型保存与载入

LSTM层

keras中现成的模型及应用

模型的抽取、冻结、微调

文本预处理

图像预处理及归一化

交叉验证问题

提到交叉验证并非就特指k折交叉验证。交叉验证包括3种:简单交叉验证、k折交叉验证、留一交叉验证。

Bleu评价问题

Bleu评价模型,需要注意维度

生成器问题

参考1参考2

yield、next、send:

  • 有yield语句的函数,返回一个生成器对象;
  • 调用next(g)或g.send()时才会正式执行该函数;
  • 执行到yield语句时返回一个值,函数暂停,下一次调用时会接着这个断点继续执行;
  • 项目中据此改写了图像生成器generator,使其每次返回多张图像信息,加快训练速度(每个epoch由700s缩减至220s)。

模型保存与载入问题

模型保存:

  • 方法一:结构(存为json文件)+权重
model_json = model.to_json()
with open("model_architecture.json", "w") as f_obj:
    f_obj.write(model_json)
model.save_weights("model_weights.h5")
  • 方法二:直接保存模型
model.save('model.h5')

模型载入:

  • 方法一:
model = keras.models.model_from_json(open('model_architecture.json').read())
model.load_weights('model_weight_epoch_1.h5')
  • 方法二:
model = keras.models.load_model('CIFAR10_model_epoch_1.h5')

其他保存文件:

  • np文件
np.save('bottleneck_features.npy', x_train_Dense)  # 将提取出的特征保存在.npy文件中
train_data = np.load('bottleneck_features.npy') 
pickle.dump(svm_classifier, open('svm_model_iris.pkl', 'wb')) #写入文件,需要二进制操作
model = pickle.load(open('svm_model_iris.pkl', 'rb'))
#下面还未见过应用
pickle.dumps(obj) #不需要写入文件中,直接返回一个序列化的bytes对象
pickle.loads(bytes_object) #直接从bytes对象中读取序列化的信息

Embedding问题

参考
main_input = Input(shape=(100,), dtype='int32', name='main_input')

x = Embedding(output_dim=512, input_dim=10000, input_length=100)(main_input)

  • 任何layer均可以加name参数;
  • Embedding层只能作为第一层;
  • Input层到Embedding层,内部相当于已经进行onehot转换了,仅需要提供字典大小10000即可;

LSTM问题

LSTM理解

LSTM重要参数:keras.layers.LSTM(units, activation='tanh',return_sequences=False, return_state=False),其中units为(a^{<t>})(C^{<t>})的神经元个数。

LSTM中两个参数(return_sequences, return_state)的理解:

  • 两者均默认为false,LSTM对象默认返回一个值,开启return_state后另外返回最后一个cell的隐态(a^{<t>})(C^{<t>})
  • keras中RNN和LSTM等模块没有参数V,要获得(hat y^{<t>}),则需要再接一个Dense层(才是ng课中真正的参数V)转化一下;
  • 理解1
  • 理解2

LSTM中参数activation和recurrent_activation,暂时理解成前者为求( ilde C)(a)的激活函数,后者为求三大门的激活函数。(待验证。)

keras中现成的模型和应用

keras中自带了一些经典模型,比如VGG、ResNet、Inception等;并提供了这些模型的常见应用场景,比如利用ResNet50分类识别,利用VGG16提取图像特征,抽取模型中间层的输出来提取特征等等。(详见文档中Preprocessing模块的Applications。)

模型抽取、冻结、微调

三个问题共参考

模型抽取:(模型抽取参考

  • 获取层对象,以便获取其参数
    • model.get_layer(name=None,index=None),或者model.layers[index]
  • 获取模型输入
    • model.input
  • 例如:model = Model(inputs=model.input,outputs=model.get_layer(layer_name).output)

模型冻结:(模型冻结参考

  • 通过设置layer对象参数layer.trainable=False,或者模型参数model.trainable=False来控制;(注意layer和model这一参数冲突时默认顺序)
  • 通过model.save()和load_model()方法载入的模型冻结时有问题,故推荐使用结构+权重分开的方式保存模型。(model.to_json() + model.save_weights())

模型fine-tune:模型微调参考【待消化】

文本预处理问题

参考1;
参考2;

text_to_word_sequence如何添加自定义过滤词?比如加's

  • 目前解决:采用正则表达式先换掉's,再统一过滤掉。

三种常用函数:

  • keras.preprocessing.text.text_to_word_sequence
    • 将一句话打散成单词;输入是字符串,输出是单词列表;
    • 参数:filter可以滤掉不必要的标点符号;lower默认转小写;split默认以空格划分;
  • keras.preprocessing.text.Tokenizer
    • 单词与编码的互换工具;
    • 常用方法(注意输入输出格式):
      • tokenizer.fit_on_texts(["今天 北京 下 雨 了", "我 今天 加班"])
      • tokenizer.texts_to_sequences(["下 雨 我 加班", "北京 下雨"])
  • keras.preprocessing.sequence.pad_sequences
    • 填充序列至固定长度
      • pad_sequences([[1,2,3],[4,5,6]],maxlen=10,padding='pre')

图像预处理及归一化问题

1.各种归一化的区别、作用?【待消化】
参考1参考2

2.项目中利用VGG16提取图像特征前对图像预处理,为啥要把RGB转为BGR?这个VGG16训练时前处理是用BGR?

20191011注:keras.applications.vgg16.preprocess_input中根据不同的模式进行了通道互换(将RGB转为BGR)和通道零均值化(每个通道减去各自均值),源代码见D:Anaconda3Libsite-packageskeras_applicationsimagenet_utils.py。(至于为啥要由RGB转为BGR,推测可能是VGG16模型训练时候用了OpenCV,因为只有OpenCV用的BGR格式)

原文地址:https://www.cnblogs.com/inchbyinch/p/11666924.html