统一化视觉语义嵌入与多模态神经语言模型

统一化视觉语义嵌入与多模态神经语言模型
摘要:html

受多模态学习和机器翻译的最新进展的启发,咱们介绍一种编码器-解码器管道学习模型(a): 一种图像和文本的多通道联合嵌入空间。(b):一种新的语言模型,用于从咱们的空间解码分布式表示。咱们的管道有效地结合了联合图像文本嵌入模型与多模态神经语言模型。咱们介绍的结构-内容神经语言模型,根据内容分解句子的结构,并由编码器产生的表示条件。当解码器能够从乱序的句子开始产生新的标识,该编码器容许对图像和句子进行排序。咱们使用长短时间记忆(LSTM)编码句子,咱们相比较有先进性能flickr8k和flickr30k上没有使用对象的检测。当使用的19层牛津卷积网络,咱们还设置了新的最佳结果。此外,根据线性编码器咱们展现了在空间向量运算方面学到的嵌入空间捕捉多模态的规律,例如蓝色汽车的图像 -“蓝色”+“红色”是与红色汽车相近的图像。有800张图像生成的样本说明可供比较。
1 介绍 
本文介绍了一种对生成图像说明文字(或字幕)问题的新方法,即转换成编-解码模型框架。对于编码器,咱们学习一种图像-句子联合嵌入在使用了长短时间记忆(LSTM)递归神经网络编码的句子中的方法[ 1 ]。图像特征从深度卷积网络投影到对应的长短时间记忆(LSTM)隐状态的嵌入空间。是为了学习对图像和描述的排序损失的最小化。对于解码,咱们引入了一个新的神经语言模型称为结构-内容神经语言模型 (SC-NLM)。SC-NLM 不一样于已经存在的模型是由于它由编码器产生的表示条件理顺了那些一个纷繁句子的内容结构。算法

咱们发现,从SC-NLM采样使咱们可以产生逼真的图片说明,在生成说明文字制做方面有了很大的提升[ 2 ]。此外,咱们认为,这种结合的方法很天然适合于实验框架,这是一个很好的编码器,能够用来排序的图片和标题,然而一个好解码器也可用于从头生成新的标识。
咱们的方法有效地结合图像文本嵌入模型(编码器阶段)与多模态神经语言模型(解码器阶段)。此外,咱们的方法创建在机器翻译中使用的相似的方法。
虽然咱们的工做重点是图像描述的生成和排序,咱们也利用图像和句子对多模态向量空间的性质进行定性分析。
咱们展现了使用一个线性的句子编码器,语言规律[ 12 ]也延伸到了多模态向量空间。例如一个蓝色汽车的图像 -“蓝色”+“红色”是与红色汽车相近的图像。咱们定性检查几种类型的类比和结构与PCA(Principal Component Analysis)预测。所以,即便有一个全球性的图像句子训练目标,编码器仍然能够用来检索本地(例如,单个词语)。这和在机器翻译中成对排序的方法相似。
1.1多模态表示学习
在学习图像和文本的多模态表示上一个大的主体工做已经完成。经常使用的方法包括学习联合图像-字的嵌入以及嵌入图像-句子变成一个公共空间。咱们提议管道直接使用这些想法。多模态学习其余的方法包括深度玻耳兹曼机使用,  自动编码器、递归神经网络、Log-bilinear神经语言模型和主题模型。几种对图片和标识双向排序的方法也被提出,基于内核CCA和标准化的CCA依赖树的递归网络。从架构的角度来看,咱们的编码器-解码器模型是最类似的,提出了一个两步的嵌入和生成过程的语义分析。
1.2生成图像的描述
咱们小组在一块儿的方法来生成三种类型的方法,在这里每个更详细的描述:数据库

基于模板的方法。基于模板的方法包括填写句子模板,如三元组(triplet是三元组抽象数据类型的定义),基于目标检测和空间关系。虽然这些方法能够产生精确的描述,他们每每更多的在本质上是“呆板的(像机器人的)”并且不适用于流动性和经过人为写的标识。网络

成分为基础的方法。这些方法的目的是利用现有的图像描述数据库中提取相关的标识成分并组在一块儿产生新的描述。这些方法的优势是,它们容许一个更普遍和更富有表现力的类标识,这是和人类同样更加流畅的基于模板的方法。架构

神经网络方法。这些方法的目的是产生描述,经过采样的条件神经语言模型。在这方面的初步工做,基于多模态神经语言模型[ 2 ],生成的标识经过在特征向量机从深度卷积网络输出。这些想法最近扩展到多模式递归网络并有显著的改善[ 7 ]。在本文的产品说明中描述的方法至少在质量上与使用最早进技术基于成分的方法相提并论。框架

clipboard.png

图2:编码器:深度卷积网络(CNN)和长短时间记忆递归神经网络(LSTM)对图像-句子嵌入的学习。解码器:一种新的神经语言模型,将结构和内容向量结合起来,在一个时间序列中生成单词。
一直困扰着描述生成系统的问题是关于评价的问题。然而在过去的使用中Bleu and Rouge已经认为,这样的自动化评价方法是不可靠的并且和人的判断不匹配。这些做者反而建议,对图片和标识的排序问题能够用一个代理来产生。因为任何一代系统都须要一个评分函数来访问,如何更好的使一个标识和图像匹配,优化这项任务,天然要进行一代一代的改进。许多最近的方法已经使用这种方法进行评估。如何将改进的排序以产生新的描述仍然是一个问题。咱们认为,编码器-解码器方法是很天然适合这实验框架的。那是由于,编码器给咱们提供了一种对图像和字幕排序很好的方法去开发良好的评分函数,而解码器可使用陈述学习优化评分函数做为一种生成和评分新描述的方法。分布式

1.3 机器翻译的编码器-解码器方法
咱们提出的管道,新的标识的生成,在神经机器翻译(NMT)已经经历了屡次成功。NMT的目标是开发一个端到端的大型神经网络翻译系统,相对于使用神经网络做为一个以现有的短语为基础附加功能的系统。NMT的方法是基于编解码原理。也就是说,一个编码器是用来映射一个英语句子的分布向量。而后,解码器在这个向量条件下生成一个从源文本法语的翻译。现行方法包括使用卷积编码器和RNN解码器[ 8 ],RNN编码器和RNN解码器[ 9,10 ],LSTM解码器和LSTM编码器。虽然仍是个年轻的研究领域,这些方法已经等同于强大的基于短语的系统实现的性能,(用于rescoring也开始改善)。
咱们讨论的是,它是天然的图像标识生成做为翻译问题的思考。咱们的目标是把一个图像转换成一个描述。这种观点也被使用,使咱们可以在机器翻译文学利用现有的思想。此外,还有一种在概念的得分函数天然的对应关系(如何更好的使一个标识和图像匹配)和比对( 其中的一部分的描述对应的图像的部分),能够天然地被利用用于生成描述。函数

2 一种用于排序和生成的编码器解码器模型
在这一节中,咱们描述咱们的图像描述的生成管道。咱们首先回顾LSTM RNNs这是用于编码句子,其次是如何学习的多模态分布表示。而后,咱们回顾Log-bilinear神经语言模型[ 29 ],乘法神经语言模型[ 30 ],而后介绍咱们的结构-内容的神经语言模型。
 2.1 Long short-term memory RNNs
      长短时间记忆LSTM[ 1 ]是一个递归神经网络,采用了内置的内存单元存储信息和利用远程上下文。LSTM记忆单元被选通单元所包围,目的是阅读,写做和重置信息。LSTMs已被用于多种任务实现先进的性能,如手写识别[31],序列生成[32]语音识别[33],机器翻译等[11]等等。也已经提出了漏失[34]的策略,以防止在深LSTM过分拟合。
    
设Xt表示在时间t的训练实例的矩阵。在咱们的例子,Xt是用来表明: 在一批训练集中每句的第t个字的 字表示矩阵。
让(It, Ft, Ct, Ot, Mt)表示在时间t时候的 输入 、忘记、细胞、LSTM的隐藏状态(input, forget, cell, output and hidden states of the LSTM)。在这项工做中的LSTM对应结构用如下公式实现:
                
clipboard.png性能

其中,(σ)表示S形的激活函数,(·)表示矩阵乘法和(•)表示组件份量乘法。(原文:where (σ) denotes the sigmoid activation function, (·) indicates matrix multiplication and (•) indicates component-wise multiplication.)学习

2.2多模态分布表示
    假设咱们给出的图像-描述训练集是每一个正确描述的图像对应着一个图像和一个描述。图像被表示训练在ImageNet分类任务的卷积网络的顶部层(softmax以前)。设D是一个图像特征向量的维数(例如4096 alexnet [ 36 ]),K是嵌入空间的维数和 V是在词的数量。分别是图像嵌入矩阵和字嵌入矩阵。给定一个图像描述S = {w1,...,wN} ,word : w1,...,wN,让{w1,...,wN}, 表明相对应的字表示w1,...,wN(矩阵中的WT 的条目)。一个句子v的表示是LSTM在时间N步隐藏的状态(例如 向量mt)。咱们注意到,对图像文本嵌入计算句子表示的其余方法已被提出,包括依赖关系树型RNNs和依赖解析包。让表示一 个图像特征向量(图像对应于描述集S),而且让是图像中嵌入。咱们定义了一个得分函数  s(x, v) = x · v,其中 x  v  首先按已有单位规范刻度。让θ表示全部要被学习的参数(WI  和全部的  LSTM权重)。咱们优化了如下成对排序损失:
    
clipboard.png

其中VK  对图像嵌入X 来说是对比性的(非描述性的)句子,XK反之亦然。咱们全部的实验中,咱们初始化字嵌入的权重是预先计算的K = 300维向量 ,学习使用连续的词袋模型[ 37 ]。对比是从训练集中每一时期随机抽样。

2.3 Log-bilinear神经网络模型
     Log-bilinear语言模型(LBL)[ 29 ]是一种肯定性模型,能够被看做是一个线性隐层前馈神经网络。对编码器的来讲,在词汇表中的每一个单词w表示为一个k维真实值向量。让 R 表示一个字表示向量的V ×K矩阵,其中V 是词汇表的大小。让(w1, . . . wn−1)是一个n-1个字元组,其中n-1是上下文的大小。 LBL模型进行线性预测下一个字表示为

clipboard.png

其中是 K x K 上下文参数矩阵。所以,是预测表示。给定下的条件几率,
 
clipboard.png

其中是偏置向量。伴随着随机梯度降低学习结束。
2.4  Multiplicative 神经语言模型
    如今假设咱们给定一个从多模的向量空间的向量,与一个单词序列。例如,u能够是图像,其说明由S.给出的嵌入表示。一个Multiplicative 神经语言模型是 一个从前面词和向量u中给定的新词的分布式模型。乘法模型具备附加属性,该属性是用张量代替字嵌入矩阵,其中G是片的数目代替。给定u,咱们能够计算出一个词表示矩阵函数 ,即关于u词表示 用u的各成分的ui 被计算为加权切片的线性组合。这里,片的数目G等于K,u的维数。
    一般没有必要使用彻底无分裂张量。如在例子中,咱们从新表明T的三个矩阵如                                
clipboard.png

其中 diag(·) 表示矩阵对角线上的争论。经过预选择的一些因素F这些矩阵被参数化。条件向量u被称为一个属性和容许一个条件类似模型使用词的三阶模型:它们做为一个条件的函数,词汇的意义是如何变化的。
设表示“折叠”的V ×K字嵌入矩阵。给定上下文 预测下一个词表示由下式给出:
               
clipboard.png
                                        
其中是对的词表示的的列 。是 K × K上下文矩阵。给出一个预测下一个的词表示,输出的因素是,其中•是一个component-wise的产物。在给定下的条件几率  能够写成 
clipboard.png

 其中 表示对应字i 的列。对比 log-bilinear模型,以前的字表示的R矩阵被咱们已经派生的分解张量T所取代。咱们比较乘法模型对加法的变形[ 2 ]并找到一个大型数据集,如SBU标题照片数据集,乘法变形明显优于其对应的加法。所以,该SC-NLM是来自乘法变形。

clipboard.png

图3:左边:多模态神经语言模型。中间:结构-内容神经语言模型(SC-NLM)。
右边:一个SC-NLM 的预测问题。
2.5结构-内容神经语言模型
    咱们如今描述结构-内容的神经语言模型。假设,沿着对的描述,咱们给定一个序列的特定字结构变量。纵观咱们的实验,每一个对应于词的语音部分,虽然其余的可能性能够被用来代替。给定一个嵌入集u(内容向量),咱们的目标是从前面字上下文和正向的结构上下文建模分布,其中k是正向上下文大小。图3给出了一个模型和预测问题的说明。直观地说,结构变量在生成短语期间有助于指导模型,能够被认为是做为一个软模板,以帮助模型避免产生语法废话。此模型的分配与机器翻译的NNJM类似,在目标语言中前一个单词的上下文是被预测的单词,在源语言中的向前的上下文是单词。

咱们的模型能够被解释为一个乘法的神经语言模型,但在这里的属性向量是再也不是u,而是一个加法函数的u和结构变量T。
设是结构变量T的嵌入向量。这些都是从一个可学习的查找表中以相同的方式的词是得到。咱们介绍一个序列的结构上下文矩阵,这起到一样的做用做为字背景矩阵。设表示用于多模向量u一个含量矩阵。组合结构和内容信息的属性向量被计算为
                 
clipboard.png
                                                 
其中,是一个ReLU非线性和b是偏移向量。向量如今对先前所述的乘法模型的向量u起着相同的做用而且对模型的剩余部分保持不变。咱们的实验用,因素F=100。
    SC-NLM是在收集了大量的图像描述(e.g.Flickr30K)的训练。有供表明训练向量u的多种选择。一个选择是使用相应的图像的嵌入。另外一种选择,这也是咱们采起的方法,是限制用于与LSTM计算的描述S中嵌入向量。这种方法的优点是,SC-NLM能够被训练纯文本。这让咱们作出使用大量的单语的文本(例如非图像字幕)来提升语言模型质量。因为S的嵌入矢量与所述图像嵌入共享在一个共同的空间,该模型已经被训练以后咱们也能够控制图像嵌入(例如,在测试时,当没有可用的描述)。这是一个在明确要求图像字幕对训练和强调多通道编码空间的强度条件下的语言模型有显着的优点。
    因为篇幅的限制,咱们把咱们的标题生成过程的所有细节留给了补充材料。

clipboard.png

表1:Flickr8K实验。R@K是Recall@K(越高表明越好)。Med r 是中值排序(越低表明越好)。最好的结果总的来讲是明显的,虽然没有牛津特点的最佳效果是下划线标注的数。方法前面的标记着对象检测随单框架特色一块儿使用。
3 实验
3.1 图像-句子排序
    咱们主要的定量结果是创建使用排序的图像和描述的LSTM句编码器的有效性。咱们在Flickr8K  and Flickr30K 数据集上执行相同的实验程序。这些数据集分别有8000和30000张图像,每一个图像使用5个独立句子的注解。咱们没有作任何明确的文本预处理。咱们用两个卷积网络架构提取4096维图像特征:Toronto ConvNet以及其在2014年ILSVRC分类19层OxfordNet最终比赛第二名。在[ 15 ]的协议中,1000个图像被用于验证,1000用于测试和用于训练。使用Recall@K进行了评估,即图像的平均数,正确的标识是Top-k排名内的检索结果(句子,反之亦然)。咱们还公布了从最接近的基础真实结果的排名榜的中间排名。经过如下方法比较咱们的结果:
DeViSE。深度视觉语义嵌入模型[ 5 ]提出了一种零拍物体识别的方法,并使用了[15]。在这个模型中,句子被表示为字嵌入的用途和使用目标函数优化匹配。
SDT-RNN。 语义依赖树递归神经网络[ 6 ]是用来学习句子表示嵌入到一个共同的图像句子空间。使用相同的目标。
DeFrag。  深度片断嵌入[ 15 ]被提出做为一种替代嵌入全帧图像特征,利用从了R-CNN [44] 探测器目标检测的优点。描述被表示为一个依赖解析包。它们的目标包括全方位和片断的目标,由于它们的全方位目标与咱们的目标相匹配。
m-RNN。多模递归神经网络是最近提出的做为模式之间遇到困惑的桥梁,经过[2]第一个介绍。与全部其余方法不一样,m-RNN不使用排名损失,而是优化预测空调的图像序列中的下一个字的log-likelihood。
咱们的LSTMs使用1层300单元和在[ -0.08,0.08 ]内一致初始化权值。设置α = 0.2时,咱们发现这两个数据集上表现良好。训练是使用初始学习率为1的随机降低梯度,并呈指数降低。咱们使用Flickr上30K的40 Flickr上8K和100 minibatch大小。采用无动力。相同的超参数被用于OxfordNet实验。

clipboard.png

表2:Flickr30K实验。R@K是Recall@K(越高表明越好)。Med r 是中值排序(越低表明越好)。最好的结果总的来讲是明显的,虽然没有牛津特点的最佳效果是下划线标注的数。方法前面的标记着对象检测随单框架特色一块儿使用。

3.1.1结果
    表1和2分别说明了咱们在Flickr8K和Flickr30K上的结果。咱们的模型表现是至关于m-RNN的。一些指标咱们超越或匹配现有的结果而其余方面m-RNN优于咱们的模型。m-RNN在图像和句子之间不学习一个明确的嵌入,而依赖于做为检索手段上的复杂。学习明确嵌入空间的方法有一个超过基于困惑的检索方法显著的速度优点,由于检索是容易作到从一个查询向量的数据集中找到存储嵌入向量的单一乘法矩阵。所以,明确的嵌入方法是更适合扩展到大型数据集。
    更为有趣的是,不管咱们的方法和M-RNN在对总体对象检测赛过现有的模型。这和[6]矛盾的,其中常常性网络是表现最差的模型。经过描述和学习有意义的分布式的句子陈述,这凸显出了编码之间的依赖关系的LSTM细胞有效性。对象检测集成对咱们的框架确定会提升性能,以及容许解释检索,就如DeFrag。使用图像从全部指标有一个显著性能提高OxfordNet模型结果的特色,在这些评估任务上给出最早进的新号码。
3.2多模态语言规则
    学习 skip-gram [37] 或神经语言模型[45]的字嵌入被证实[12]表现出语言的规律,容许使用这些模型进行类比推理。好比说,“男人”相对“女人”那“国王”是什么?能够经过寻找最接近的向量来回答“国王”-“男人”+“女人”。咱们问的一个天然问题是多模态向量空间是否表现出
一样的现象。一辆蓝色汽车的图像-“蓝”+“红”是接近红色汽车的图像吗?

假设咱们训练了一个嵌入模型与一个线性编码器,即 字向量和句向量(其中v和图像嵌入标准化为单位长度)。经过咱们上面的例子,让分别表示为蓝色,红色和汽车的字嵌入。让表示蓝色和红色汽车的图像嵌入。线性编码器训练后,模型有了属性和。以下:

clipboard.png

所以给定查询图像q,否认词和确定词(全部单位规范),咱们寻求一个这样的图像:

clipboard.png

补充材料包含上述几种类型的规律和图像的定性证据。在咱们的例子中,咱们考虑的top-4最近的图像的检索。偶尔,咱们观察到,一个很差的结果却有可能获得在top-4之间良好的效果。咱们发现了一个简单的策略,删除这些状况下,首先检索的顶部附近的图像,而后根据N个图像的距离平均值对图像的进行从新排序。值得注意的是,这些类型的规律性的不能很好用LSTM编码器观察,由于句子再也不只是词语的总和。该线性编码器是大体至关于在表1和2的DeViSE基准,执行显着检索比LSTM编码器要差。所以,虽然这些规律在学习的多模态向量空间是是有趣的,但在句子和图像排序方面不是很好。
3.3图像字幕生成
     咱们从SBU标题图片集中的大约800张图像生成了图像描述。这些都是采用目前最早进的组合为基础的方法,结果显示相同的图像,TreeTalk [27]。咱们LSTM编码器和SC-NLM解码器进行训练,经过串联的Flickr30K 数据集和最近发布的微软COCO数据集[ 46],相结合给出咱们100000多张图片和500000多个训练的描述。SBU数据集包含1百万图像每个单一的描述,并使用[ 27 ]为训练他们的模型。同时SBU数据集较大,注释描述是嘈杂和更个性化的。
    所产生的结果能够在http://www.cs.toronto.edu/~rk...找到。 对于每个图像咱们展现了原始的标题,最近邻句子来自训练集合,从咱们的模型产生top-5,并从TeleTalk生成的最好的结果样品。最近的邻居的句子显示,咱们的模型并非简单地学会了去复制训练数据。咱们所产生的描述能够说是迄今为止最好的。

4 讨论
当产生描述时,一般是一个小区域的状况下,在任何给定的时间是相关的。咱们正在开发基于注意力模型,共同窗习到部分标识图像对齐和使用这些比对来肯定在何出席下,从而动态地修改矢量用于调理解码器。当产生描述时,一般是一个小区域的状况下,在任何给定的时间是相关的。咱们正在开发基于注意力模型,共同窗习对准图像的字幕部分,并使用这些对比来肯定在哪关注下一个,从而动态地修改用于训练解码器向量。咱们还计划尝试LSTM解码器以及深度和双向的LSTM编码器。

5补充材料:附加实验和细节
5.1多模态语言规律

clipboard.png

图4:多模态向量空间算法。在线下载的查询图像和检索图像均来自SBU数据集。

图5:300维的PCA投影 文字和图像表示(a)汽车和颜色(b)的天气和温度。
图4说明了使用训练SBU数据集模型的样本结果。在线下载的查询图像和检索图像均来自SBU数据集图像用于训练。值得注意的是,所获得的图像高度依赖于所使用的图像的查询。例如,搜索‘晚上’检索到的是在夜间拍摄的任意图像。
另外一方面,一个建筑的图像,主要是由于它的重点将返回夜间图像时,'白天'是减去和'夜'增长。相似的现象发生在猫,碗和箱子的例子。做为额外的可视化,在图5咱们计算的主成分分析预测的汽车及其相应的颜色,以及图像和天气出现。这些结果为咱们提供了强有力的证据,在多模态矢量空间与线性编码器训练的规律是明显的。固然,有意义的结果只可能当(a)该图像的内容被正确识别,(b)是相关于图像的减去字和(c)的图像是存在的,三者知足得到的相应的查询才是合理的。
5.2生成图像描述
在SC-NLM训练的句子都是来自Flickr30K和微软的COCO。给定一个图像,咱们首先映射到多模态空间。从这个嵌入,咱们定义了2套SC-NLM候选训练向量:
图像嵌入。嵌入图像自己。注意的SC-NLM不是训练图像而是在图像上进行训练由于嵌入空间是多模的。
前N个最近的单词和句子。首先计算图像嵌入后,咱们获得使用余弦类似性的前N个最近邻的单词和训练句子。 这些检索被视为一个‘概念袋'为此咱们计算一个嵌入向量做为每一个概念的意义。咱们全部的结果都使用N = 5。

clipboard.png

沿着与候选训练向量,咱们还计算由SC-NLM使用候选的POS序列。对此,咱们从训练集的长度分别为4和12之间得到一套全部POS序列。字幕是由第一采样训练向量生成,接着抽样一个POS序列,而后从SC-NLM计算一个MAP估计。咱们产生一个大的候选者列表(在咱们的结果中每一个图像有1000个)和排名,这些候选者使用一个得分函数。 咱们的评分函数包括2个功能函数:翻译模型。使用LSTM的候选描述嵌入到多式联运空间。而后,咱们计算一个转化得分做为图像嵌入和候选描述嵌入的余弦类似性。这个分数表示候选人的内容和图像是如何相关的。咱们也不断增大,这个分数对常常出如今描述的非停用词的乘法惩罚。语言模型。在大型语料库和logprobability的计算候选模式下咱们训练一个Kneser-NEY Trigram模型。这一分数是表示一个英语句子的候选者是如何合理的。文字标识(或字幕)的总成绩是翻译和语言模型的加权总和。因为定量评价所产生的描述的挑战,咱们手工调整了权重的定性结果。全部的候选者描述是他们的成绩排名,并返回了前5个字幕。

相关文章
相关标签/搜索