我们实现了一个利用WiFi来促进基于图像的定位系统的系统,避免了建筑物内部类似装饰所引起的混乱。当基于WiFi的定位线程获得大致的位置信息时,基于图像的定位线程会检索最匹配的图像,并将与这些图像相关联的相机姿态聚类为不同的候选位置。选择最接近WiFi定位结果的图像簇以进行精确的相机姿态估计。 WiFi的使用大大减少了搜索范围,避免了在3D模型中广泛搜索数百万个描述符的情况。在基于图像的定位阶段,我们还提出了一种新颖的2D到2D到3D定位框架,该框架遵循从粗到精的策略,可以在多个位置候选中快速定位查询图像,并执行局部特征匹配和通过WiFi定位选择正确的图像位置后,即可估算出相机的姿势。整个系统在将图像和WiFi信号结合到本地化任务中时显示出显着的优势,并具有在实际应用中部署的巨大潜力。
wifi定位不准(几米,不知道用的那种方法),wifi定位受环境变化影响,wifi定位还只提供三个自由度(在位置上)。
基于图像的定位,对环境变化更鲁棒?6个自由度,厘米级;对相似的场景无法分别;
本文的wifi定位还不是fingerprint的,是基于triangulation method
图像定位部分,就是在database里面查找
As all the training images are reconstructed into 3D model through Structure-fromMotion (SfM) reconstruction method, each image in the database is associated with the 3D position in the building. 对啊,我现在做的离线部分,也很接近SFM了
感觉作者做的很接近SLAM,但是写的又是image query,可能主要还是query,最后靠3d点找位置。
SfM方法[5,10,39]允许将3D点云应用于定位任务以提高准确性。 Irschara等。 [11]检索到3D点具有最匹配描述符的图像。 Li等。 [20]通过相互可见性信息将3D模型与2D图像匹配,以找到3D与2D的对应关系。同步定位和映射(SLAM)算法[4、6、18、38]在线构建3D模型并同时定位对象。但是,SLAM通常会在构建模型的过程中累积错误,因此通常适用于小型场景。而且,SLAM需要强大的计算能力和额外的设备,例如激光雷达,雷达和立体声相机,对于普通的室内本地化用户而言并不理想。萨特勒等。 [35]提出使用视觉单词将2D图像直接匹配到3D模型,以加速该过程。同样,刘等。 [22]在视觉词汇树中为3D模型建立索引,并从词汇树中检索3D场景以获取查询图像。 [8]应用嵌入式随机蕨来训练3D点分类器,通过将描述符分类为3D点类来建立查询图像到3D模型的对应关系。 [25,26]通过增加正确的对应关系和应用视频来删除从前景中提取的特征,从而提高了3D定位。 3D模型的使用支持查询图像的准确姿势估计。但是,3D模型包含数百万个描述符。搜索整个模型通常会花费大量时间。利用各种技术(例如视觉单词和关键帧)来加速匹配过程。这些方法选择匹配的样本以缩小搜索范围,从而快速进行定位。另一方面,缩小的范围使找到最佳匹配描述符的可能性也降低了,因为排除的搜索区域也包含了与查询图像保持正确匹配的高可能性。