(分组层)
该层的输入是一个大小为N×(d+C)的点集和一组大小为N’×d的质心的坐标 。输出是大小为N’×K×(d+C)的点集组,其中每个组对应于一个局部区域,K是质心点附近的点数 。注:K在不同的组之间是不同的 。
Ball查询查找位于查询点半径内的所有点(在实现中设置了K的上限) 。另一种范围查询是k最近邻(KNN)搜索,它找到固定相邻点的数目 。与KNN相比,Ball查询的局部邻域具有固定的区域尺度,使得局部区域特征具有更强的空间泛化能力,适合于需要局部模式识别的任务(如语义点标记) 。
()
在这一层中,输入是N’个点的局部区域,数据大小为N’×K ×(d+C)(meng:局部区域共N’*K个点) 。输出中的每个局部区域都由其质心和编码质心邻域的局部特征抽象 。输出数据大小为 N’× (d + C’) 。
3.3under Non-(非均匀采样密度下的鲁棒特征学习)
首先希望尽可能仔细地检查点集,以捕获密集采样区域()中最精细的细节 。但是,在低密度区域禁止这种近距离检查,因为局部模式可能会因抽样不足(the)而损坏 。在这种情况下,我们应该在更近的地方寻找更大的尺度模式 。为了实现这一目标,我们提出了密度自适应层(图 3),当输入采样密度发生变化时,它学习组合来自不同尺度区域的特征(learn tofromof) 。我们将具有密度自适应层的分层网络称为 ++ 。
(a)多尺度分组(MSG);(b)多分辨率分组(MRG)
以前在证交会 。3.2,每个抽象层次包含单个尺度的分组和特征提取 。在++中,每个抽象层提取多个尺度的局部模式,并根据局部点的密度进行智能组合 。根据对局部区域的分组和不同尺度特征的组合,我们提出了如下两种密度自适应层 。
文章插图
Multi-scale (多尺度分组,MSG) 。如图 3(a) 所示,捕获多尺度模式的一种简单但有效的方法是应用具有不同尺度的分组层( ),然后根据提取每个尺度的特征 。将不同尺度的特征串联起来形成多尺度特征 。
我们训练网络学习优化策略以结合多尺度特征 。这是通过为每个实例随机丢弃具有随机概率的输入点来完成的,我们称之为随机输入丢弃 。具体来说,对于每个训练点集,我们选择一个从 [0, p] 中均匀采样的丢弃率( ratio) θ,其中 p ≤ 1 。对于每个点,我们以概率 θ 随机删除一个点 。在实践中,我们设置 p = 0.95 以避免生成空点集 。在这样做的过程中,我们向网络展示了具有各种稀疏性(由 θ 引起)和变化均匀性(由中的随机性引起)的训练集 。在测试期间,我们保留所有可用点 。
缺点: 在每个质心点的大规模邻域上运行局部,计算量大,时间成本高
Multi- (多分辨率分组,MRG) 。一个向量(图左)是通过使用集合抽象级别从较低级别Li-1概括每个子区域的特征而获得的 。另一个向量(右)是通过使用单个直接处理局部区域中的所有原始点而得到的特征 。
当局部区域的密度较低时,由于计算第一向量时的子区域包含更稀疏的点并且更容易受到采样缺陷的影响,第一向量可能比第二向量更不可靠 。在这种情况下,第二个向量应该加权得更高 。另一方面,当局部区域的密度较高时,由于第一向量具有在较低级别中以较高分辨率递归地检查的能力,因此它提供了更精细的细节信息 。
3.4 Pointfor Set (集合分割的点特征传播)
在集合抽象级别中(setlayer),对原始点集进行二次采样 。然而,在语义点标注等集合分割任务中,我们希望获得所有原始点的点特征 。一种解决方案是始终将所有点采样为所有集合抽象级别中的质心,但这会导致高计算成本 。另一种方法是将特征从二次采样点传播到原始点 。
- 神秘物种,南极冰架坍塌,“露出”神秘物种 阅读答案
- 专著检索方法,医学文献检索重点
- 人教版初中数学九年级上册“阅读与思考”《旋转对称》教学设计
- 二、实现图片的内阴影
- 【复杂网络】关于复杂网络中的动力学系统重构的文献资料整理
- 人教版初中数学八年级下册“阅读与思考”《海伦—秦九韶公式》教学设计
- 简图记录-《乌合之众》阅读总结
- 费孝通乡土中国阅读笔记——私人道德
- 六 数据分析记录--多元线性回归在SPSS中的实现(步骤及指标含义)
- 不花钱恢复微信聊天记录,怎么不花钱恢复手机微信聊天记录