摘要:目的现有点云几何压缩算法通常将点云转换为八叉树或带潜在特征的稀疏点,从而提高数据结构的存储效率。这些方法将点云量化至三维网格点,导致点云所在表面的精度受限于量化分辨率。针对这一问题,本文将点云转化为连续的隐式表征,提出一种基于隐式表征的点云几何压缩算法框架,以克服量化分辨率对压缩质量的不利影响。方法该框架由基于符号对数距离场的隐式表征与带乘性分支结构的神经网络组成。具体来说,本文在编码阶段利用神经网络拟合隐式表征,并对该网络进行模型压缩,然后在解码阶段结合改进的 Marching Cube(MC)算法重建点云所在表面,采样恢复点云数据。结果本文在ABC(a big CAD model dataset)、Famous与 MPEG PCC(MPEG point cloud compression dataset) 数据集上进行了点云表面压缩实验。与基准算法INR(implicit neural representations for image compression)相比,本文算法的L1倒角损失平均下降了12.4%,Normal Consistency与F-score指标平均提升了1.5%与13.6%,压缩效率随模型参数量增大而提升,平均增幅为12.9%。与几何压缩标准算法G-PCC(geometry-based point cloud compression)相比,本文算法在存储大小为10 KB下依然保持55 dB以上的D1-PSNR重建性能,有效压缩上限高于G-PCC。此外,消融实验分别验证了本文提出的隐式表征和神经网络结构的有效性。结论实验结果表明,本文提出的点云压缩算法克服了现有算法的分辨率限制,不仅提升了表面重建精度,而且提升了点云表面的压缩效率与有效压缩上限。
摘要:目的深度神经网络在计算机视觉分类任务上表现出优秀的性能,然而,在标签噪声环境下,深度学习模型面临着严峻的考验。基于协同学习(co-teaching)的学习算法能够有效缓解神经网络对噪声标签数据的学习问题,但仍然存在许多不足之处。为此,提出了一种协同学习中考虑历史信息的标签噪声鲁棒学习方法(Co-history)。方法首先,针对在噪声标签环境下使用交叉熵损失函数(cross entropy,CE)存在的过拟合问题,通过分析样本损失的历史规律,提出了修正损失函数,在模型训练时减弱CE损失带来的过拟合带来的影响。其次,针对co-teaching算法中两个网络存在过早收敛的问题,提出差异损失函数,在训练过程中保持两个网络的差异性。最后,遵循小损失选择策略,通过结合样本历史损失,提出了新的样本选择方法,可以更加精准地选择干净样本。结果在4个模拟噪声数据集F-MNIST(Fashion-mixed National Institute of Standards and Technology)、SVHN(street view house number)、CIFAR-10(Canadian Institute for Advanced Research-10)和CIFAR-100和一个真实数据集Clothing1M上进行对比实验。其中,在F-MNIST、SVHN、CIFAR-10、CIFAR-100,对称噪声(symmetric)40%噪声率下,对比co-teaching算法,本文方法分别提高了3.52%、4.77%、6.16%和6.96%;在真实数据集Clothing1M下,对比co-teaching算法,本文方法的最佳准确率和最后准确率分别提高了0.94%和1.2%。结论本文提出的协同学习下考虑历史损失的带噪声标签鲁棒分类算法,经过大量实验论证,可以有效降低噪声标签带来的影响,提高模型分类准确率。
摘要:目的知识蒸馏旨在不影响原始模型性能的前提下,将一个性能强大且参数量也较大的教师模型的知识迁移到一个轻量级的学生模型上。在图像分类领域,以往的蒸馏方法大多聚焦于全局信息的提取而忽略了局部信息的重要性。并且这些方法多是围绕单教师架构蒸馏,忽视了学生可以同时向多名教师学习的潜力。因此,提出了一种融合全局和局部特征的双教师协作知识蒸馏框架。方法首先随机初始化一个教师(临时教师)与学生处理全局信息进行同步训练,利用其临时的全局输出逐步帮助学生以最优路径接近教师的最终预测。同时又引入了一个预训练的教师(专家教师)处理局部信息。专家教师将局部特征输出分离为源类别知识和其他类别知识并分别转移给学生以提供较为全面的监督信息。结果在CIFAR-100(Canadian Institute for Advanced Research)和Tiny-ImageNet数据集上进行实验并与其他蒸馏方法进行了比较。在CIFAR-100数据集中,与最近的NKD(normalized knowledge distillation)相比,在师生相同架构与不同架构下,平均分类准确率分别提高了0.63%和1.00%。在Tiny-ImageNet数据集中,ResNet34(residual network)和MobileNetV1的师生组合下,分类准确率相较于SRRL(knowledge distillation via softmax regression representation learning)提高了1.09%,相较于NKD提高了1.06%。同时也在CIFAR-100数据集中进行了消融实验和可视化分析以验证所提方法的有效性。结论本文所提出的双教师协作知识蒸馏框架,融合了全局和局部特征,并将模型的输出响应分离为源类别知识和其他类别知识并分别转移给学生,使得学生模型的图像分类结果具有更高的准确率。