首个融合场景图知识的多模态预训练模型 ERNIE-ViL

近日,百度在该领域取得突破,提出业界首个融合场景图知识的多模态预训练模型 ERNIE-ViL。百度研究者将场景图知识融入到视觉-语言模型的预训练过程,学习场景语义的联合表示,显著增强了跨模态的语义理解能力。ERNIE-ViL 还在包括视觉常识推理、视觉问答、引用表达式理解、跨模态图像检索、跨模态文本检索等 5 项典型多模态任务中刷新了世界最好效果。并在多模态领域权威榜单视觉常识推理任务(VCR)上登顶榜首。

论文链接:https://arxiv.org/abs/2006.16934

ERNIE 开源地址:https://github.com/PaddlePaddle/ERNIE

好东西留着进一步研读

原文地址:https://www.cnblogs.com/demo-deng/p/13254458.html