欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2019105201387
申请人: 杭州电子科技大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-01-05
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种基于多模态融合的视觉问答融合增强方法,其特征在于包括以下步骤:步骤1、利用GRU结构构建时序模型,获得问题的特征表示学习、利用从Faster R‑CNN抽取的基于自底向上的注意力模型的输出作为图像的特征表示,具体将句子中的每个单词都按照顺序时刻依次输入到GRU模型中,句子的最后一个单词的GRU输出表示整个句子;

步骤2、基于注意力模型Transformer进行多模态推理,同时引入注意力模型对图片‑问题‑答案这个三元组进行多模态融合,从而建立推理关系;

步骤3、由于多种不同的图像‑问句‑答案隐含关系被涵盖,且针对不同的隐含关系有不同的推理过程和结果输出,利用标签分布学习和KL散度损失函数和softmax回归方法来拟合真实答案分布情况;

所述的GRU中有两个门,一个是重置门rt,另一个是更新门zt,令句子q={x1,x2,...,xn},其中xi代表了第i个单词,重置门和更新门的公式如下所示:r r

rt=σ(Wxt+Uht‑1)

Z z

zt=σ(Wxt+Uht‑1)

然后计算候选隐含层ht′:

ht′=tanh(Wxt+rtUht‑1)ht′表示的是输入第t个单词之后得到的更新后的信息,rt则能控制保留多少前t个单词的相关记忆,如果rt=0,那么ht′就只有包含当前词xt的信息;

更新门控制需要从前t‑1个单词中遗忘的信息,输入第t个单词之后,能够得到前t个词中的所有过滤好的信息:

问句s的特征表示为vq=hn{x1,x2,...,xn};

步骤2所述的注意力模型,其attention的定义如下:其中,Q,K,V分别是query、key、value的简写,K,V是一一对应的,它们就像是key‑value的关系,那么上式的意思就是通过Q这个query,通过与K内积,并softmax的方式,来得到Q与各个V的相似度,然后加权求和,得到一个向量;其中因子 起到调节作用;

Multi‑Head Attention是Google提出的新概念,是Attention机制的完善:MultiHead(Q,K,V)=Concat(head1,...headh)将Q,K,V通过参数矩阵映射,然后再做Attention,将该过程重复做h次,并将结果拼接起来就行了;

将答案信息通过嵌入式表达之后,引入视觉问答任务;问题‑图片对经过transformer模块生成的向量与answer embedding又进行了一次融合,最后得到了带有答案信息的特征和只有图片‑问题信息的特征,这两部分进行结合之后,能够得到整个视觉任务的信息特征,再将这些信息送入带有线性变换和softmax模块的分类系统,从而最后需要的答案。

2.根据权利要求1所述的一种基于多模态融合的视觉问答融合增强方法,其特征在于步骤3具体实现如下:

在像视觉问答常用的数据集VQA和VQA‑2.0中,每一对图像‑问题都是由很多人使用多个答案进行标注的;每个图像‑问题样本的答案可以被表示为一个与该样本对应的答案的概率分布向量 其中yi∈[0,1]表示候选答案 中第i个问题在该样本的人工标注的答案中出现的频率;由于视觉问答模型的输出是每个答案的得分,一个直接的做法是使用基于边界的损失函数来最大化正确答案与其他错误答案之间的距离,代替传统的softmax+cross‑entropy的损失方式,基于边界的损失函数为:将基于负样本采样的边界损失学习问题转变为面向所有候选答案分布y的标签分布学习问题;对于图像‑问题样本的每一个与之对应的候选答案ai都计算出一个相关度得分satt(q,I,ai);然后用softmax回归方法来拟合真实答案分布的情况:最后使用KL散度损失函数来对错误的答案预测进行惩罚,KL距离是两个随机分布间距离的度量;记为DKL(p||q);它度量当真实分布为p时,假设分布q的无效性,其公式为:当p=q的时候,散度为0;

通过最小化如下损失函数的方式进行模型训练:其中N是所有被用来训练的图像‑问题对的数量;测试的时候,只需要将所有候选答案的特征表示输入模块,然后选择三元组相关度最高的答案satt(q,I,ai)最为最终预测的答案即可。