一、A-SCN

原文链接:Attentional ShapeContextNet for Point Cloud Recognition | IEEE Conference Publication | IEEE Xplore

        这篇文章提出了一个新的网络结构SCN(本文不过多关注):

      引入注意力后即A-SCN。下图为A-SCN块结构(图中标注的第一个D_{out}好像应为D_V):

二、Point Attention

原文链接:https://arxiv.org/pdf/1909.12663.pdf

        本文提出了新的网络结构LAE-Conv,然后将其输出特征输入到下列结构:

        将上述注意力机制嵌入网络中,得到本文的Point Attention网络如下:

 三、CAA

原文链接:https://arxiv.org/pdf/1911.12885.pdf

        同样也是先提出一种网络结构,再将特征输入下图所示的CAA模块:

该图大致分为三行,第一行包含CCC块和CAE块:

       

图中第三行使用残差连接,并学习一个权重\alpha来使学习变得容易。最终的输出为

四、Offset Attention

原文链接:https://arxiv.org/pdf/2012.09688.pdf

        同样先提出PCT(点云Transformer)结构,这里仅关注其中的注意力部分。

        Offset Attention图示:

图中两个开关均往上时为自注意力(SA);均往下时为offset attention;LBR表示线性层,BN和ReLU。

五、Point Transformer

原文链接:https://arxiv.org/pdf/2012.09164.pdf

Point Transformer Layer

Point Transformer Block