摘要:目的随着三维扫描仪以及三维点云采集技术的飞速发展,三维点云在计算机视觉、机器人导引、工业设计等方面的应用越来越广泛。但是由于传感器分辨率、扫描时间、扫描条件等限制,采集到的点云往往比较稀疏,无法满足许多应用任务的要求,因此人们一般采用上采样的方法来获取稠密点云。但是由于原始稀疏点云缺失细节信息,对单一低分辨率点云进行上采样得到的结果往往较差。方法本文首次提出了一种触觉增强的图卷积点云超分网络,其主要思想是通过动态图卷积提取触觉特征并与低分辨率点云特征进行融合,以得到更加精确的高分辨率点云。由于触觉点云相比于低分辨率点云更加密集、精确,而且比较容易获取,因而本文将其与原始稀疏点云进行融合辅助后可以获得更加准确的局部特征,从而有效提升上采样的精度。结果本文首先构建了用于点云超分的三维视触觉数据集(3D Vision and Touch, 3DVT),包含12732个样本,其中70%用于训练新模型,30%用于测试;其次,本文采用倒角距离作为评价指标对数据集进行了测试和验证。实验结果表明,不添加触觉辅助信息时,超分后点云的平均倒角距离为3.009*,加入一次触觉信息融合后,平均倒角距离降低为1.931*,加入两次触觉信息融合后,平均倒角距离进一步降低为1.916*,从而验证了本文网络对点云超分效果的提升作用。同时,不同物体的可视化效果图也表明,加入触觉信息辅助后的上采样点云分布更加均匀,边缘更加平滑。此外,进一步的噪声实验显示,在触觉信息的辅助下,本文提出的网络对噪声具有更好的鲁棒性。在以3DVT数据集为基础的对比实验中,相比于现有最新算法,本文算法的平均倒角距离降低了19.22%,取得了最好的实验结果。结论通过使用本文提出的触觉增强的图卷积点云超分网络,借助动态图卷积提取触觉点云特征并融合低分点云,可以有效地提高超分重构后高分辨率点云的质量,并且对周围噪声具有良好的鲁棒性。
摘要:目的利用深度学习开展变化检测是遥感智能解译热点研究方向之一。针对基于Transformer变化检测模型结构复杂、参数过多、训练耗时的问题,本文设计了一种融合特征交互和融合的轻量级变化检测网络。方法提出了一种融合特征交互和融合的轻量级变化检测网络(feature interaction and fusion lightweight network, FIFLNet)。解码器中采用EfficientNet作为特征提取网络,其能利用模型的放缩(model scaling)能力来扩大模型的感受野。然后通过设计通道、像素交互模块(spatial and channel interact block)和浅层跳跃连接(low-level skip-connection)来实现浅层双时相的细节特征交互和上采样阶段的传递,以此增加模型对局部特征的判别精度。此外,利用特征融合分组卷积模块(feature fusion and groups convolution block,FFGCB)对双时相数据进行降维融合,来降低模型计算量。最后,设计了融合上采样模块(fusion upsampling block,FUB)对局部特征与全局特征进行融合还原,同时利用局部特征的细节、纹理来补偿全局特征细节的缺失。结果本文方法在两个遥感影像数据集(LEVIR-CD和SYSU-CD)上与13种SOTA(state-of-the-art)方法进行比较。客观上,本文方法对比现有变化检测方法在各项定量评价指标上均具有明显优势。在LEVIR-CD和SYSU-CD数据集中,本文方法F1分别取得91.51%和82.19%,相较于对比方法的最优值分别提升了0.43%和1.58%,并且模型的每秒浮点运算量和参数量分别为1.66G和0.56M,低于所有对比方法。主观上,本文方法相对于对比方法的检测区域准确、漏检率低,具有丰富的细节。结论本文提出的轻量级变化检测网络FIFLNet以较少的参数量和每秒浮点运算量获得了优越的性能,改善了小目标漏检、边界误检的情况,能够获得高质量的变化检测结果。