Point-BERT:一种基于Transformer架构的点云深度网络

打印 上一主题 下一主题

主题 529|帖子 529|积分 1587

目次
  1. 前言
  2. Point Tokenization
  3. Transformer Backbone
  4. Masked Point Modeling
  5. Experiments
  Reference
  
1. 前言

从PointNet [1] 开始,点云深度网络逐渐成为办理点云特征提取与语义分析的重要研究方向。尤其在OpenAI的GPT模型得到了突破性成果后,一系列的点云深度学习研究开始向雷同的技术方向靠拢,即基于Transformer架构的深度网络模型。早期使用Transformer架构的点云深度网络 [2],固然接纳了注意力机制来设计实现,但是受限于三维数据的标定,并未发挥出其在语言和视觉领域的性能。在数据规模方面,点云的数据量也远远不能满足雷同语言和图像那样的超大要量。
引入基于掩码猜测的BERT架构 [3],实现对点云弱监督条件下的特征练习,是办理上述题目的一个重要的思绪。雷同自然语言,点云在其局部邻域的数据分布上,自有其规律或语义束缚。然而,应用BERT架构到点云任务上存在一定的困难。BERT架构初始是用于自然语言处理,其处理单元为每一个词汇。对应点云,如果将每一个点视为词汇,那么计算量将变得非常巨大,使得练习任务不能执行。为了办理该题目,Point-BERT被提出 [4]。Point-BERT将点云的局部邻域视为一个点云词汇,对应一个Token。通过Point Tokenization步调能够将一个点云进行Token转换,创建局部几何特征和点云词汇的对应。之后,使用Transformer架构实现掩点建模Masked Point Modeling,通过局部邻近的Token于此被掩注的Token地区。这样便能实现一个弱监督条件下的点云特征抽取。Point-BERT的流程图如下图所示:


2. Point Tokenization

如前所述,Point-BERT的第一步是创建local patch到Token的表现。文章对这个过程的描述黑白常清楚的。首先使用FPS算法将点云下采样出一组group中心,假设为g个中点。按照中心间隔将点云分别成对应的g个组。每一个组被视为一个token对应的地区,就像文本的词汇和图片的patch。作者进一步使用mini-PointNet [1] 实现point embeddings,将点云的组变换成embedding后的特征f_i,i\in g。将f_i作为输入,转换成离散的token,这里的token对应为规模为N的词汇描述。DGCNN [5] 被用来作为Tokenizer的backbone。
对于点云重建,解码器被用来从token中恢复点相邻的组。由于词汇的规模是有限的,但是局部几何的分布又是十分复杂的,因此作者使用DGCNN来创建局部毗邻点云组的关联关系,这在一定程度上能够补充token对局部几何表达能力的缺陷。作者使用FoldingNet [6] 来终极恢复点云的局部几何。重建过程被赋予为一个点组到token的能量表达,其上界要逼近于原始点云和重建点云的编解码log-likelihood [7]:

参考文献 [7], 作者使用一个Gumbel softmax relaxation来实现优化。

3. Backbone

Point-BERT基于Transformer架构的主干网络根本服从Tokenization的设计步调。首先使用FPS将一个点云分成g个组,每个组对应一个中心c。这些local组被mini-PointNet嵌入到特征f。mini-PoinrNet仅包含MLP层和maxpool操纵。这里通过MLP,嵌入位置信息{pos_i}到c中。到此,我们组合了位置信息和特征f到一组输入嵌入{x_i}。{x_i}被作为Transformer的输入。基于 [3],我们附加一组tokenE到输入序列,这样我们就得到了一个向量表现:

这里有L层,最后一层输出
表现全局特征,是从输入点云组的编码表现得到的。     

4. Masked Point Modeling

为了实现弱监督算法框架,作者扩展了掩码建模策略到Point-BERT架构中,即Masked point modeling (MPM)。详细分为三个部分:掩码序列生成、文本猜测定义、点组混合以及目的优化。
掩码序列生成. Point-BERT的掩码序列生成不同于BERT和MAE,作者参考块尺度掩码策略 [8]. 作者使用邻域点组来定义一个连续的局部地区。通过mask在这个局部地区的全部点组,以生成掩码点云。掩码位置被表现为
 ​​​​​​,r是掩码的比例。之后,作者更换全部的掩码嵌入点陪同一个雷同可学习的预定义掩码学习嵌入E[M],同时保持位置不变。终极,损坏的输入嵌入被添补到Transformer编码器。
文本猜测定义. Point-BERT的目的是通过周边的几何来估计缺失的几何。预练习的dVAE编码每一个局部块到离散的token,以表现几何的模式,因此,Point-BERT能够直接应用这些token作为弱监督信息以练习Transformer。
点组混合. 受到CutMix的开导,作者提出了一个规范令牌猜测作为文本猜测的一个补充。由于每一个点云组的绝对位置被归一化,通过Point-BERT能够混合两个点组来创造新的虚拟样本,就像最优传输 [10] 一样。随着预练习的进行,我们将虚拟样本同时作为练习数据进行关联token的猜测。在现实应用时,我们生成与样本规模雷同的虚拟样本以增强Point-BERT的泛化学习能力。
优化目的. MPM的目的是恢复在掩码地区的点token。优化目的能够被设定为最大正确点token的log-likelihood,由掩码输入嵌入提供:

MPM任务估计模型猜测掩码点云的几何布局,仅通过MPM任务练习transformer会导致对高层语义信息的剖析缺陷。因此作者实用一个广泛使用的对比学习方法MoCo [11] 来改善transformer的语义学习能力。通过从虚拟样本中抽取符合现实样本的feature,以使模型更多的注意到语义信息。通过一个对比丧失来实现:

q表现混合样本的一个feature,通过momentum feature encoder得到,混合比率为r,K为存储尺度,τ表现温度。组合MPM与对比学习能够使Point-BERT同时捕获局部几何布局以及高层语义模式,这对于点云学习是至关重要的。

5. Experiments

PointBert在ModelNet40的Acc准确率已经达到93.8。

PointBert在ShapeNet上的分割准确率mIoU也到了84%的水平。


总结

团体来说,Point-Bert已经可以被认为是使用GPT相似技术,实现点云语义分析的一个比较成熟的处理框架了,包罗MAE掩码猜测,Transformer语义理解机制,以及使用混合编码扩展token的概念,根本与文本域图像处理的概念形成良好的对应。这里,如果将点组的token对应GPT的文本分析,理论来说,就可以打通LLM到三维点云的通道。综上,Point-Bert技术门路是一个非常值得深入挖掘的研究方向。

Reference

[1] Qi C R, Su H, Mo K, et al. Pointnet: Deep learning on point sets for 3d classification and segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2017: 652-660.
[2] Zhao H, Jiang L, Jia J, et al. Point transformer[C]//Proceedings of the IEEE/CVF international conference on computer vision. 2021: 16259-16268.
[3] Devlin J, Chang M W, Lee K, et al. Bert: Pre-training of deep bidirectional transformers for language understanding[J]. arXiv preprint arXiv:1810.04805, 2018.
[4] Yu X, Tang L, Rao Y, et al. Point-bert: Pre-training 3d point cloud transformers with masked point modeling[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2022: 19313-19322.
[5] Wang Y, Sun Y, Liu Z, et al. Dynamic graph cnn for learning on point clouds[J]. ACM Transactions on Graphics (tog), 2019, 38(5): 1-12.
[6] Yang Y, Feng C, Shen Y, et al. Foldingnet: Point cloud auto-encoder via deep grid deformation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2018: 206-215.
[7] Ramesh A, Pavlov M, Goh G, et al. Zero-shot text-to-image generation[C]//International Conference on Machine Learning. PMLR, 2021: 8821-8831.
[8] Hangbo Bao, Li Dong, and FuruWei. Beit: Bert pre-training of image transformers. arXiv preprint arXiv:2106.08254, 2021. 1, 3, 4, 5, 8
[9] Sangdoo Yun, Dongyoon Han, Seong Joon Oh, Sanghyuk Chun, Junsuk Choe, and Youngjoon Yoo. Cutmix: Regularization strategy to train strong classifiers with localizable features. In ICCV, 2019. 5
[10] Jinlai Zhang, Lyujie Chen, Bo Ouyang, Binbin Liu, Jihong Zhu, Yujing Chen, Yanmei Meng, and Danfeng Wu. Pointcutmix: Regularization strategy for point cloud classification. arXiv preprint arXiv:2101.01461, 2021. 5
[11] Kaiming He, Haoqi Fan, Yuxin Wu, Saining Xie, and Ross Girshick. Momentum contrast for unsupervised visual representation learning. In CVPR, 2020. 3, 5, 8

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

用户国营

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表