Abstract
这篇文章提出了一种新的图像局部特征匹配方法。
这篇文章建议先在粗级别上建立像素级密集匹配,然后在细级别上细化好的匹配,而不是依次进行图像特征检测、描述和匹配。
与使用 cost volume 来搜索对应关系的密集方法相比,我们使用transformer中的自注意力和交叉注意力层来获得以两幅图像为条件的特征描述符。
Transformer提供的全局感受野使该方法能够在低纹理区域产生密集匹配,在那里特征检测器通常很难产生重复的兴趣点。
在室内和室外数据集上的实验表明,LoFTR在很大程度上超越了最先进的方法。
在已发布的方法中,LoFTR在可视化本地化的两个公共基准测试中也排名第一。
Conclusion
这篇文章提出了一种新的无检测器匹配方法LoFTR,该方法可以使用 Transformer 从粗到细精确地建立的半密集匹配。
提出的LoFTR模块利用transformer中的自注意力层和交叉注意力层,将局部特征转换为与上下文和位置相关的特征,这对于LoFTR在纹理较低或重复模式不明显的区域上获得高质量匹配至关重要。
实验表明,LoFTR在多个数据集上实现了最先进的相对姿态估计和视觉定位性能。
LoFTR为图像局部特征匹配中的无检测器方法提供了一个新的方向,并可以扩展到更具挑战性的场景,如具有严重季节变化的图像匹配。
-
Previous
【深度学习】Pythia v0.1: the Winning Entry to the VQA Challenge 2018 -
Next
【深度学习】OPT: Open Pre-trained Transformer Language Models