天天看点

经典回顾 | 一种跨模态多媒体检索的新方法

2016年经典回顾 | 一种跨模态多媒体检索的新方法

最近闲来无事,为大家整理了深度学习、多模态、计算机视觉相关的必读论文和视频教程,已开源到Github上,欢迎大家使用:​​https://github.com/xmu-xiaoma666/FightingCV-Course​​。项目会长期保持更新,也欢迎大家联系笔者,加入更多教程,促进大家学习。项目在线笔记见:​​https://www.wolai.com/2ZvDcyvLF2FrHjnujeJzmK​​,更新会更加及时。

【写在前面】

多媒体文档的文本和图像组件的联合建模问题被广泛研究。文本组件表示为来自隐藏主题模型的样本,通过潜在 Dirichlet 分配学习,图像表示为视觉包 (SIFT) 特征。目前研究了两个假设:1)显式建模两个组件之间的相关性有好处,2)这种建模在具有更高抽象级别的特征空间中更有效。两个组件之间的相关性是通过典型相关分析(CCA)来学习的。抽象是通过在更一般的语义级别上表示文本和图像来实现的。在跨模态文档检索任务的背景下研究了这两个假设。这包括检索与查询图像最匹配的文本,或检索与查询文本最匹配的图像。结果表明,考虑跨模态相关性和语义抽象都可以提高检索准确性。跨模态模型也被证明在单模态检索任务上优于最先进的图像检索系统

1. 论文和代码地址

经典回顾 | 一种跨模态多媒体检索的新方法

A new approach to cross-modal multimedia retrieval

论文地址:​​https://dl.acm.org/doi/10.1145/1873951.1873987​​

代码地址:​​https://github.com/emanuetre/crossmodal​​

2. Motivation

在过去的十年中,网络上的多媒体内容出现了大规模爆炸式增长。这次多媒体内容爆炸没有使得多媒体内容建模技术的复杂性也相应提高。今天,搜索多媒体存储库的流行工具仍然是基于文本的,例如搜索引擎,例如 Google 或 Bing。为了解决这个问题,学术界致力于设计能够解释多种内容模态的模型。在计算机视觉中,已经投入了大量精力来解决图像标注问题。多媒体社区已经开始了许多大规模的研究和评估工作,例如 TRECVID和 imageCLEF,涉及图像或视频数据以及注释、隐藏式字幕信息或语音识别记录。这些文献中提出了许多技术来自动增强带有标题或标签的图像,并检索和分类使用来自这些模态的信息增强的图像。

在这些领域取得进一步进展的一个重要要求是为多种内容模态开发复杂的联合模型。尤其重要的是开发支持对多模态内容进行推理的模型。这些模型不仅将图像随附的文本视为图像分类的关键字来源,而且还利用将文本正文与许多图像或视频片段配对的文档的完整结构。此类文档(包括网页、报纸文章和技术文章)的可用性随着基于互联网的信息的爆炸式增长而蓬勃发展。在这项工作中,作者考虑了这些多媒体模型的设计。专注于包含文本和图像的文档,尽管许多想法将适用于其他模态。作者从有关文本和图像分析的大量文献开始,包括将文档表示为特征包(文本的单词直方图,图像的 SIFT 直方图),以及主题模型的使用(例如潜在 Dirichlet 分配)从文档语料库中提取低维泛化。作者基于这些表示来设计图像和文本的联合模型。

该模型的性能是在跨模态检索问题上评估的,该问题包括两个任务:1)检索文本文档以响应查询图像,以及 2)检索图像以响应查询文本。这些任务是许多实际应用的核心,例如在网络上找到最能说明给定文本的图片(例如,说明故事书的页面),找到与给定图片最匹配的文本(例如,一组关于给定地标的假期帐户),或搜索文本和图像的组合。在本研究中集中讨论模型设计问题。作者使用检索任务的性能作为模型质量的间接衡量标准,直觉是最好的模型应该产生最高的检索精度。

关于模型设计,作者研究了两个假设。首先是图像和文本之间相关性的显式建模很重要。作者提出了使用典型相关分析 (CCA) 明确解释跨模态相关性的模型,并将它们的性能与两种模态独立建模的模型进行比较。第二个是抽象可以发挥有用的作用——这里定义为跨越来越普遍的语义层的分层推理。各种结果表明,这种表示可以提高多媒体任务的性能,例如使用分层主题模型进行文本聚类或使用分层语义表示进行图像检索。作者在这里考虑的检索问题适用于这种抽象层次结构的设计:例如,将特征分组到文档中,这些文档本身又分组到类或主题中,从而形成语料库。通过将图像和文档建模为关于一组预定义文档类的后验概率向量,通过逻辑回归计算,为视觉和文本提出了抽象表示。

作者研究了图像和文本表示的各种组合的检索性能,这些组合涵盖了两个指导假设的所有可能性。本文的结果表明,抽象和跨模态相关建模都有好处。最佳结果是通过将图像和文本的语义抽象与联合空间中互相关的显式建模相结合的模型获得的。作者还通过使用提出的联合模型将最先进的图像检索系统与解释每个图像附带的文本的图像检索系统的性能进行比较来证明联合文本和图像建模的好处。结果表明,后者具有显着更高的检索精度。

3. 方法

在本节中,作者提出了一种新的跨模态检索方法。尽管基本思想适用于任何内容形式的组合,但作者将讨论限制在包含图像和文本的文档上。目标是支持真正的跨模式查询:检索文本文章以响应查询图像,反之亦然。

3.1 The problem

数据库包含图像和文本组件的文档。在实践中,这些组件可以是多种多样的:从单个文本由一个或多个图像补充的文档(例如,一篇报纸文章)到包含多个图片和文本(例如,维基百科)。为简单起见,作者考虑每个文档由图像及其随附文本组成的情况,即 。图像和文本分别表示为特征空间和上的向量。这样,每个文档在文本和图像空间中的点之间建立了一对一的映射关系。给定一个文本(图像)查询,跨模态检索的目标是返回图像(文本)空间中最接近的匹配项。

3.2 Matching images and text

每当图像和文本空间具有自然对应关系时,跨模态检索就归结为经典检索问题。表示两个空间之间的可逆映射。给定中的查询,找到与在 中最近的邻居就足够了。类似地,给定一个中的查询,它可以用来找到的最近邻。在这种情况下,跨模态检索系统的设计简化为用于确定最近邻的有效相似度函数的设计。

由于图像和文本倾向于采用不同的表示形式,因此通常在和之间没有自然对应关系。在这种情况下,映射 M 必须从示例中学习。作者在这项工作中追求的一种可能性是将这两个表示映射到两个具有自然对应关系的中间空间和中。设和是从每个图像和文本空间到两个同构空间 和的可逆映射,因此存在可逆映射:

给定中的查询,跨模态检索操作简化为在中找到的最近邻。类似地,给定一个中的查询,目标是找到中的最近邻。

在这种方法下,跨模态检索系统设计的主要问题是学习中间空间和 。在这项工作中,作者考虑了两种主要程序组合产生的三种可能性。在第一种情况下,两个线性投影学习将分别映射到相关的 d 维子空间 和 上。:

这保持了表示的抽象级别。在第二种情况下,一对非线性变换用于将图像和文本空间映射到一对语义空间 使得。

3.3 Correlation matching

学习需要一些关于文本和图像空间中的表示之间的最佳对应关系的概念。一种可能性是依赖子空间学习。这是一个学习框架,是文本和视觉文献中一些非常流行的降维方法的基础,例如潜在语义索引或主成分分析 (PCA)。从计算的角度来看,子空间学习方法通​​常是有效的,并且产生易于概念化、实现和部署的线性变换。在这种情况下,图像和文本子空间之间对应关系的自然度量是它们的相关性。这表明典型相关分析(CCA) 作为跨模态建模的自然子空间表示。

典型相关分析(CCA)是一种类似于PCA的数据分析和降维方法。虽然 PCA 只处理一个数据空间,但 CCA 是一种跨两个(或多个)空间联合降维的技术,提供相同数据的异构表示。假设是这两个空间中的表示包含一些联合信息,这些信息反映在它们之间的相关性中。 CCA 学习 d 维子空间和最大化两种模态之间的相关性。

与 PCA 中的主成分类似,CCA 学习规范成分的基础,即数据最大相关的方向和 ,即:

其中和表示图像和文本,而表示它们之间的互协方差矩阵。优化可以解决为广义特征值问题 (GEV):

广义特征向量确定一组不相关的规范分量,相应的广义特征值指示解释的相关性。 GEV 可以像常规特征值问题一样有效地解决。

经典回顾 | 一种跨模态多媒体检索的新方法

前 d 个规范分量和定义了用于在子空间和上分别投影和的基础。这两个投影之间的自然可逆映射来自最大交叉模态相关性的 d 维基之间的对应关系,如。对于跨模态检索,每个文本都映射到它的投影到,每个图像都映射到它的投影到。这导致了两种模态的紧凑、有效的表示。由于向量和是两个等距的 d 维子空间中的坐标,因此可以认为它们属于单个空间 U,通过重叠和获得。上图展示了示意图,其中 CCA 为跨模态检索定义了一个公共子空间 (U)。

给定投影的图像查询,与它最匹配的文本 需要最小化:

对于在 d 维向量空间中的一些合适的距离 d(·,·) 度量。类似地,给定一个带有投影的查询文本,最接近的图像最小化了。

3.4 Semantic matching

子空间学习的一种替代方法是在更高的抽象层次上表示文档,以便文本和图像空间之间存在自然的对应关系。这是通过使用词汇表的语义概念。这些是广泛的文档类别,例如“历史”或“生物学”,单个文档被分组到其中。然后分别借助文本和图像的两个分类器来实现两个映射和。 将文本映射到后验概率向量 相对于 V 中的每个类。这些后验向量的空间 被称为文本的语义空间,概率 是语义文本特征。类似地,将图像 I 映射到语义图像特征向量在语义图像空间 $ S^I $中。

计算后验概率分布的一种可能性是通过多类逻辑回归。这会产生一个具有概率解释的线性分类器。逻辑回归通过将数据拟合到逻辑函数来计算 j 类的后验概率:

其中 是归一化常数,V 是类标签,X 是输入空间中的特征向量,,是类 j 的参数向量。通过使 X 分别成为图像和文本表示 和 来学习文本和图像模态的多类逻辑回归。

语义建模对于跨模态检索有两个优点。首先,它提供了更高层次的抽象。虽然 和 中的标准特征是无监督学习的结果,并且通常没有明显的解释(例如图像特征往往是边缘、边缘方向或频率基),但 和中的特征是语义概念概率(例如图像属于“历史”或“生物学”文档类的概率)。以前的工作表明,这种增加的抽象可以为图像检索等任务带来更好的泛化。其次,语义空间 和是同构的:在这两种情况下,图像和文本都表示为关于相同文档类的后验概率向量。因此,空间可以被认为是相同的,即 。

给定一个查询图像,由概率向量 表示,检索包括找到由概率向量发送的文本 ,它最小化:

对于概率分布之间的距离 d 的某种合适的度量。作者将这种类型的检索称为语义匹配

3.5 Semantic correlation matching

也可以结合子空间和语义建模。在这种情况下,逻辑回归在两个最大相关子空间内执行。CCA 建模首先应用于学习最大相关子空间和 。然后在这些子空间中的每一个中学习逻辑回归量和 以分别生成语义空间和 。检索最终基于 图文距离 ,基于投影到 和 。我们将这种类型的检索称为语义相关匹配。

3.6 Text and Image Representation

在这项工作中,文本在上的表示源自潜在狄利克雷分配 (LDA) 模型。 LDA 是文本语料库的生成模型,其中文本的语义内容或“要点”被概括为主题的混合。更准确地说,文本被建模为 K 个主题的多项分布,每个主题又被建模为单词的多项分布。文本 中的每个单词是通过首先从特定于文本的主题分布中采样一个主题 z,然后从该主题的多项式中采样一个单词来生成的。在 中,文本文档由它们的主题分配概率分布表示。

在 中,图像表示基于流行的尺度不变特征变换(SIFT)。首先从训练集中的每个图像中提取一袋 SIFT 描述符(使用 LEAR 的 SIFT 实现)。然后使用 k-means 聚类算法学习视觉词的代码本或字典。从每个图像中提取的 SIFT 描述符使用此码本进行矢量量化,并且图像由由此量化产生的 SIFT 描述符直方图表示。

4.实验

经典回顾 | 一种跨模态多媒体检索的新方法

维基百科数据集的总结。

经典回顾 | 一种跨模态多媒体检索的新方法

每个类别的 MAP 性能。

经典回顾 | 一种跨模态多媒体检索的新方法

提出的跨模式检索方法的分类。

经典回顾 | 一种跨模态多媒体检索的新方法

不同的距离度量(MAP 分数)。

经典回顾 | 一种跨模态多媒体检索的新方法

检索性能(MAP 分数)。

经典回顾 | 一种跨模态多媒体检索的新方法

文本查询的两个示例和 SCM 检索的top图像。

经典回顾 | 一种跨模态多媒体检索的新方法

精确召回曲线。

经典回顾 | 一种跨模态多媒体检索的新方法

通过将查询分类到最高 MAP 类计算的类别级混淆矩阵。

经典回顾 | 一种跨模态多媒体检索的新方法

基于内容的图像检索。

经典回顾 | 一种跨模态多媒体检索的新方法

图像查询的一些示例(最左列上的框架图像是查询对象)和相应的顶部检索图像(按文本相似度排名)。

【项目推荐】