Cross-Modality Relevance for Reasoning on Language and Vision

该论文提出了一种新的跨模态相关性(CMR)框架,用于解决视觉-语言多模态数据上的学习和推理问题。通过实体相关性和关系的相关性,发掘实体间和关系间的联系,提升多模态任务的性能。实验在VQA和NLVR任务上验证了这种方法的有效性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

背景

这篇论文的工作来自密歇根州立大学,接收于ACL2020

摘要

本文的工作要解决的是challenge是在视觉-语言多模态数据上的学习和推理。作者指出,在多模态任务上,identify the relations between modalities,并在其上进行组合和推理是decision making的关键。

另外,作者提到,在处理跨模态数据的学习表示和实现目标任务的推理方面有几个具有挑战性的研究方向(第二点正是本文的出发点):
1.alignment of representation spaces for multi-modal
2.design architectures with ability to capture high-order relations
3.Using pre-trained models to make most use of minimal data

个人理解,作者在阐述motivation时篇幅过于简略,本文要学习的样本representations是基于relevance scores的,并且说这个idea是受IR模型的启发,作者一再强调relevance patterns的重要性(原文说与注意力机制、transformer一样都很重要),却没有例子说明发掘relations具体用于解决哪块问题。

本文的贡献点,主要是对关系模式的探索,实验证明了发掘实体间联系Entity Relevance和关系间联系Relational Relevance在多模态任务中的有效性。

架构

在这里插入图片描述
常规的输入方式,图像:object-level features ROIs 2048-dim
文本 使用bert的格式。
图文各自先经过single-modal transformer做自模态的items联系建模。之后出来的enhanced-features送入cross-modal Transformer中, 输入格式为
S=[s1t,...,sNtt,s1v,...,sNvv]∈Rd×(Nt+Nv)S=[s_1^t,...,s_{N^t}^t,s_1^v,...,s_{N^v}^v] \in \R^{d\times(N_t+N_v)}S=[s1t,...,sNtt,s1v,...,

跨模态融合变压器用于多光谱目标检测是一种先进的目标检测方法。多光谱图像由不同波段的传感器捕获,每个波段提供了目标的不同特征信息。传统的目标检测算法往往局限于单一光谱波段,无法在多光谱图像中有效提取目标信息。而跨模态融合变压器能够将不同波段的光谱信息融合,并在融合后的特征上进行目标检测,从而提高目标检测的准确性和鲁棒性。 跨模态融合变压器结合了Transformer模型和跨模态融合方法。Transformer模型是一种基于自注意力机制的神经网络架构,能够有效地建模长距离依赖关系。它将目标的特征信息转化为一系列的注意力权重,然后利用这些权重来对不同波段的特征进行加权融合。这种融合方式可以将信息从一个波段传递到另一个波段,使得各个波段的特征能够共同影响目标检测结果。 跨模态融合变压器还引入了多尺度的注意力机制,以适应不同尺度目标的检测需求。它通过在特征提取的过程中引入多个不同大小的注意力窗口,来对不同尺度的目标进行建模。通过这种方式,跨模态融合变压器能够在多光谱图像中准确地检测到各种尺度的目标。 总之,跨模态融合变压器是一种能够融合不同波段特征并进行多光谱目标检测的先进方法。它的引入可以提高目标检测的准确性和鲁棒性,适用于各种需要从多光谱图像中提取目标信息的应用场景。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值