详解:多模态知识图谱种类及其应用

点击上方视学算法”,选择加"星标"或“置顶web

重磅干货,第一时间送达算法


做者丨漆桂林@知乎(已受权)
来源丨https://zhuanlan.zhihu.com/p/163278672
编辑丨极市平台

知识图谱技术已经被普遍用于处理结构化数据(采用本体+D2R技术)和文本数据(采用文本信息抽取技术),可是还有一类非结构化数据,即视觉数据,则相对关注度较低,并且相缺少有效的技术手段来从这些数据中提取结构化知识。最近几年,虽然有一些多模态视觉技术提出,这些技术主要仍是为了提高图像分类、图像生成、图像问答的效果,不能很好地支撑多模态知识图谱的构建。视觉数据库一般是图像或视频数据的丰富来源,并提供关于知识图谱中实体的充分视觉信息。显然,若是能够在在更大范围内进行连接预测和实体对齐,进而进行实体关系抽取,可使现有的模型在综合考虑文本和视觉特征时得到更好的性能,这也是咱们研究多模态知识图谱(multi-modal knowledge graph)的意义所在。数据库

目前,已经有不少开放知识图谱(见https://lod-cloud.net/http://www.openkg.cn/),并且很多企业也有本身的企业知识图谱。然而,这些知识图谱不多有可视化的数据资源。图1所示为多模态知识图谱的发展过程。api

图1.多模态知识图谱的发展过程

多模态知识图谱与传统知识图谱的主要区别是,传统知识图谱主要集中研究文本和数据库的实体和关系,而多模态知识图谱则在传统知识图谱的基础上,构建了多种模态(例如视觉模态)下的实体,以及多种模态实体间的多模态语义关系。例如在最新的一个多模态百科图谱Richpedia中(以下图2所示)[5],首先构建了图像模态伦敦眼图像与文本模态知识图谱实体(DBpedia实体:London eye)之间的多模态语义关系(rpo:imageof),以后还构建了图像模态实体伦敦眼与图像模态实体大本钟之间的多模态语义关系(rpo:nextTo)。微信

图2.Richpedia中的多模态实体与多模态语义关系

1、多模态知识图谱相关工做

随着人工智能技术的不断发展,知识图谱做为人工智能领域的知识支柱,以其强大的知识表示和推理能力受到学术界和产业界的普遍关注。近年来,知识图谱在语义搜索、问答、知识管理等领域获得了普遍的应用。其中在描述多媒体的可用数据集中,现有的工做重点是捕获多媒体文件的高级元数据(如做者、建立日期、文件大小、清晰度、持续时间),而不是多媒体内容自己的音频或视觉特性。如下会介绍几个重要的开源多模态知识图谱:网络

1.DBpedia[1]app

DBpedia做为近十年来语义网研究的中心领域,其丰富的语义信息也将会成为从此多模态知识图谱的连接端点,其完整的本体结构对于构建多模态知识图谱提供了很大的便利。DBpedia项目是一个社区项目,旨在从维基百科中提取结构化信息,并使其可在网络上访问。DBpedia知识库目前描述了超过260万个实体。对于每一个实体,DBpedia定义了一个惟一的全局标识符,能够将其解引用为网络上一个RDF描述的实体。DBpedia提供了30种人类可读的语言版本,与其余资源造成关系。在过去的几年里,愈来愈多的数据发布者开始创建数据集连接到DBpedia资源,使DBpedia成为一个新的数据web互联中心。目前,围绕DBpedia的互联网数据源网络提供了约47亿条信息,涵盖地理信息、人、公司、电影、音乐、基因、药物、图书、科技出版社等领域。编辑器

2.Wikidata[2]ide

Wikidata中也存在大量的多模态资源,Wikidata是维基媒体基金会(WMF)联合策划的一个知识图谱,是维基媒体数据管理策略的核心项目。充分利用Wikidata的资源,主要挑战之一是提供可靠而且强大的数据共享查询服务,维基媒体基金会选择使用语义技术。活动的SPARQL端点、常规的RDF转储和连接的数据api是目前Wikidata的核心技术,Wikidata的目标是经过创造维基百科全球管理数据的新方法来克服数据不一致性。Wikidata的主要成就包括:Wikidata提供了一个可由全部人共享的免费协做知识库;Wikidata已经成为维基媒体最活跃的项目之一;愈来愈多的网站在浏览页面时都从Wikidata获取内容,以增长大数据的可见性和实用性。svg

3.IMGpedia[3]

IMGpedia是一个大型的连接数据集,它从Wikimedia Commons数据集中的图像中收集大量的可视化信息。它构建并生成了1500万个视觉内容描述符,图像之间有4.5亿个视觉类似关系,此外,在IMGpedia中单个图像与DBpedia之间还有连接。IMGpedia旨在从维基百科发布的图片中提取相关的视觉信息,从Wikimedia中收集全部术语和全部多模态数据(包括做者、日期、大小等)的图像,并为每张图像生成相应的图像描述符。连接数据不多考虑多模态数据,但多模态数据也是语义网络的重要组成部分。为了探索连接数据和多模态数据的结合,构建了IMGpedia,计算Wikipedia条目中使用的图像描述符,而后将这些图像及其描述与百科知识图谱连接起来。

IMGpedia是一个多模态知识图谱的先例。将语义知识图谱与多模态数据相结合,面对多种任务下的挑战和机遇。IMGpedia使用四种图像描述符进行基准测试,这些描述符的引用和实现是公开的。IMGpedia提供了Wikidata的连接。因为DBpedia中的分类对一些可视化语义查询不方便,因此IMGpedia旨在提供一个更好的语义查询平台。IMGpedia在多模态方向上是一个很好的先例,但也存在一些问题,好比关系类型稀疏,关系数量少,图像分类不清晰等,也是以后须要集中解决的问题。

4.MMKG[4]

MMKG主要用于联合不一样知识图谱中的不一样实体和图像执行关系推理,MMKG是一个包含全部实体的数字特征和(连接到)图像的三个知识图谱的集合,以及对知识图谱之间的实体对齐。所以,多关系连接预测和实体匹配社区能够从该资源中受益。MMKG有潜力促进知识图谱的新型多模态学习方法的发展,做者经过大量的实验验证了MMKG在同一链路预测任务中的有效性。

MMKG选择在知识图谱补全文献中普遍使用的数据集FREEBASE-15K (FB15K)做为建立多模态知识图谱的起点。知识图谱三元组是基于N-Triples格式的,这是一种用于编码RDF图的基于行的纯文本格式。MMKG同时也建立了基于DBpedia和YAGO的版本,称为DBpedia-15K(DB15K)和YAGO15K,经过将FB15K中的实体与其余知识图谱中的实体对齐。其中对于基于DBpedia的版本,主要构建了sameAs关系,为了建立DB15K,提取了FB15K和DBpedia实体之间的对齐,经过sameAs关系连接FB15K和DBpedia中的对齐实体;构建关系图谱,来自FB15K的很大比例的实体能够与DBpedia中的实体对齐。可是,为了使这两个知识图谱拥有大体相同数量的实体,而且拥有不能跨知识图谱对齐的实体,在DB15K中包括了额外的实体;构建图像关系,MMKG从三大搜索引擎中获取相应文本实体的图像实体,生成对应的文本-图像关系。可是,它是专门为文本知识图谱的完成而构建的,主要针对小数据集(FB15K, DBPEDIA15K, YAGO15K)。MMKG在将图像分发给相关文本实体时也没有考虑图像的多样性。

2、基于百科多模态知识图谱Richpedia

虽然说以前的一些工做如IMGpedia和MMKG融合了多模态的知识,构建了多模态知识图谱,但其中也存在一些问题,例如在IMGpedia中关系类型稀疏,关系数量少,图像分类不清晰等,在MMKG中图像并无做为单独的图像实体存在,而是依赖于相应的传统文本实体。这些问题对于多模态任务的发展有着较大制约,东南大学认知智能研究所基于解决如上存在的问题的动机,提出了多模态知识图谱Richpedia[5]。

Richpedia多模态知识图谱的定义以下:实体集合E包括文本知识图谱实体EKG和图像实体EIM,R表示一系列关系的集合,其中E和R利用统一资源标识符(IRIs)表示。L是文字的集合(例如:“伦敦”,“750px”),B表示为一系列的空白节点。Richpedia三元组t表示格式为<subject, predicate, object>,是(E∪B)×R×(E∪L∪B),Richpedia多模态知识图谱是Richpedia三元组的集合。

在构建多模态知识图谱中,整体模型如图3所示。接下来咱们会逐步介绍构建Richpedia的流程。

图3.构建Richpedia整体流程

与通常的文本知识图谱不一样,Richpedia的出发点是构造一个多模态知识图谱,其中包含了全面的图像实体及其之间的关系。可是,如图4所示,文本知识图谱实体的图像资源有很大一部分是长尾分布。换句话说,平均每个文本知识图谱实体在Wikipedia中只有不多的视觉信息。所以,咱们考虑借助外部来源来填充Richpedia,首先咱们基于现有的传统文本实体,从维基百科,谷歌,必应和雅虎四大图像搜索引擎中获取相应的图像实体,每个图像做为知识图谱中的一个实体存储于Richpedia中。Wikidata已经为每一个文本知识图谱实体定义了惟一的统一资源标识符,咱们将这些统一资源标识符添加到Richpedia做为文本知识图谱实体。在目前的版本中,咱们主要收集了30,638个关于城市、景点和名人的实体。对于图像实体,咱们能够直观地从Wikipedia上收集图像,而后在Richpedia中建立相应的统一资源标识符。

图4.Wikipedia中的图像分布比例

在收集完图像实体以后,咱们须要对图像实体进行预处理和筛选。由于咱们的数据来自于开放资源,它们会被搜索引擎基于与查询字段的相关性评分进行排名。从多模态知识图谱的角度而言,文本知识图谱实体所包含的图像实体不只要相关性高并且还要具备多样性,如图5所示,对于中间的图像实体,右侧的图像实体由于较高的类似性从而被系统过滤掉,保留左侧类似性较低的图像实体。由于从搜索引擎中获取的图像实体不免存在重复问题,接下来咱们经过一系列的预处理操做,使得每一个图像实体都与相应的传统文本实体具备较高的相关度。其中预处理操做包括去噪操做和多样性检测,去噪操做的目的是去除不相关的图像实体,多样性检测的目的是使得图像实体具备尽量高的多样性。

图5.Richpedia中图像实体的多样性

由于很难基于不一样图像的像素特征直接检测出这些语义关系,因此咱们利用基于规则的关系抽取模板,借助Wikipedia图像描述中的超连接信息,生成图像实体间的多模态语义关系。在图6中,咱们以rpo:contain和rpo:nearBy为例说明如何发现协和广场,卢克索方尖碑和航运喷泉图像实体间的语义关系。如图6所示,咱们在中文维基百科中协和广场词条中获取到包含卢克索方尖碑和航运喷泉的图像实体,从语义视觉关系的角度上看,协和广场包括了卢克索方尖碑和航运喷泉,卢克索方尖碑就在航运喷泉的旁边。为了发现这些关系,咱们收集这些图像的文本描述,并提出三个有效的规则来提取多模态语义关系:

规则1. 若是在描述中有一个超连接,其指向的对应Wikipedia实体的几率很高。咱们利用Stanford CoreNLP检测描述中的关键字。而后,经过字符串映射算法发现预约义关系。例如,若是咱们在两个实体之间的文本描述中获得单词‘left’,咱们将获得‘nearBy’关系。

规则2. 若是描述中有多个超连接,咱们基于语法分析器和语法树检测核心知识图谱实体(即描述的主体)。而后,咱们以核心知识图谱实体做为输入,将这种状况简化为规则1。

规则3. 若是在描述中没有指向其余词条的超连接,咱们使用Stanford CoreNLP来查找描述中包含的Wikipedia知识图谱实体,并将这种状况简化为规则1和规则2。由于规则3依赖于NER结果,准确率低于相应的预标注超连接信息,因此它的优先级低于前两个规则。

图6.Richpedia中多模态语义关系发现

3、基于Richpedia的多模态知识服务网站

Richpedia网站(http://rich.wangmengsd.com/)是为Richpedia多模态知识图谱开发的一个网站,其提供了对Richpedia数据库的介绍,查询,资源检索,使用教程以及数据下载服务。其中包括:

a) Homepage:主要对Richpedia数据库进行了概述。

图7.Homepage界面

b) Download:提供了image文件和三元组关系N-Triples文件的下载连接。

图8.Download界面

c) SPARQL:实现了对Richpedia数据库中的实体和视觉关系的SPARQL查询。

图9.SPARQL查询界面

d) Query:提供了对地名和人物的直接查询相关图片功能。

图10.查询界面
图11.查询结果

e) Tutorial:提供了网站的使用教程。

首先,咱们能够在Richpedia中查询实体信息,包括图像实体实体和文本知识图谱实体。第一步是选择查询的实体类别,而后选择要具体查询的实体。例如,若是咱们要查询安卡拉城市实体的文本知识图谱实体和图像实体,能够在下拉选择器中选择对应的安卡拉城市标签。以后出现的页面中上半部分是安卡拉的文本知识图谱实体,下半部分是安卡拉的图像实体。

其次,咱们能够经过Richpedia的在线访问平台查询图像实体之间的视觉语义关系。选择查询文本知识图谱实体后,点击对应的图像实体,能够查看图像实体的视觉语义关系。例如,当咱们想查询一个与北京动物园图像实体具备rpo:sameAs关系的图像实体时,咱们能够点击相应的北京动物园图像实体,获得相应的结果。

图12.Tutorial界面

f) Ontology:提供了Ontology的相关信息。

图13.Ontology界面

g) Resource:提供了对全部图片资源的访问地址。

h) Github连接以及页面底端:提供了friendly link,联系人邮箱,Github主页以及分享协议。

4、多模态知识图谱应用

多模态知识图谱的应用场景十分普遍,首先一个完备的多模态知识图谱会极大地帮助现有天然语言处理和计算机视觉等领域的发展,同时对于跨领域的融合研究也会有极大的帮助,多模态结构数据虽然在底层表征上是异构的,可是相同实体的不一样模态数据在高层语义上是统一的,因此多种模态数据的融合有利于推动语言表示等模型的发展,对于在语义层级构建多种模态下统一的语言表示模型提出数据支持。其次多模态知识图谱技术能够服务于各类下游领域,例如多模态实体连接技术能够融合多种模态下的相同实体,能够普遍应用于新闻阅读,时事推荐,明星同款等场景中如图14,多模态知识图谱补全技术能够经过远程监督补全多模态知识图谱,完善现有的多模态知识图谱,利用动态更新技术使其更加的完备,多模态对话系统的应用就更加的普遍,现阶段电商领域中集成图像和文本的多模态对话系统的研究蒸蒸日上,多模态对话系统对于电商推荐,商品问答领域的进步有着重大的推动做用。

图14.多模态知识图谱在视觉实体连接中的应用

多模态知识图谱是一个新兴领域,受益于近些年通信技术的发展,多模态数据愈来愈成为人们生活中触手可及的信息,种种多模态技术也成为当下研究的热门方向。

参考文献

[1] Auer S, Bizer C, Kobilarov G, et al. Dbpedia: A nucleus for a web of open data[M]//The semantic web. Springer, Berlin, Heidelberg, 2007: 722-735.
[2] Vrandečić D, Krötzsch M. Wikidata: a free collaborative knowledgebase[J]. Communications of the ACM, 2014, 57(10): 78-85.
[3] Ferrada S, Bustos B, Hogan A. IMGpedia: a linked dataset with content-based analysis of Wikimedia images[C]//International Semantic Web Conference. Springer, Cham, 2017: 84-93.
[4] Liu Y, Li H, Garcia-Duran A, et al. MMKG: multi-modal knowledge graphs[C]//European Semantic Web Conference. Springer, Cham, 2019: 459-474.
[5] Wang M, Qi G, Wang H F, et al. Richpedia: A Comprehensive Multi-modal Knowledge Graph[C]//Joint International Semantic Technology Conference. Springer, Cham, 2019: 130-145.


点个在看 paper不断!

本文分享自微信公众号 - 视学算法(visualAlgorithm)。
若有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一块儿分享。

相关文章
相关标签/搜索