簡化主網絡結構
· 不使用3D卷積
· 輸入特征圖的channel數從128減少為 ** ,網絡耗時減少2.5ms
· 網絡主結構所有層channel數減半,網絡耗時減少4.5ms
· Upsampling的channel數從256減少到128,減輕detection head,網絡耗時減少3.9ms
· Tensorrt加速,提速45.5%
1. 特征提取:在proposal中隨機篩選N個點,1)獲得階段的點特征;2)獲得N個點的坐標,并用如下圖5所示的canonical transfor ** tion得到與原坐標系無關的坐標特征。兩種特征聯合在一起,作為proposal中點的特征表達
2. Voxel表達:將不同大小的proposal,通過voxel統一化到相同大小:dl = 6,dw = 6,dh = 6
3. 使用VFE layer提取終特征

Roi grid point feature extraction總結:目前基于point-wise feature的目標檢測方法還處于研究階段,效率無法保證,精度還未在真實自動駕駛車上,但由于該方法直接從點云提取特征,大的保留了點云的原始信息,比較有潛力得到更好的效果。參考文獻:
1、PointPillars: Fast Encoders for Object Detection from PointClouds
2、VoxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection
3、PIXOR: Real-time 3D Object Detection from Point Clouds
4、Multi-View 3D Object Detection Network for Autonomous Driving5、YOLO3D: End-to-end real-time 3D Oriented Object Bounding Box Detection from LiDAR Point Cloud6、SqueezeSeg: Convolutional Neural Nets with Recurrent CRF for Real-Time Road-Object Segmentation from 3D LiDAR Point Cloud7、PointSeg: Real-Time Se ** ntic Segmentation Based on 3D LiDAR Point Cloud8、LaserNet: An Ef??cient Probabilistic 3D Object Detector for Autonomous Driving

canonical transfor ** tionRoi aware Point Cloud Pooling[5]整體流程如下圖6所示,與STD[9]中的pooling方法類似,先將proposal分割成固定大小的voxel,如14×14×14,然后再提取voxel特征表達:
· RoIAwareMaxPool:使用的是階段輸出的point-wise se ** ntic part feature,在voxel中計算 ** x pooling
· RoIAwareAvgPool:使用的是proposal中經過canonical transfor ** tion點坐標特征和segmentation score,在voxel中計算avg pooling

將兩組特征聯合作為proposal的pooling特征。
Roi aware Point Cloud Pooling Roi grid pooling[6]與上面兩種pooling方法不同的是,并沒有將proposal通過voxel得到固定大小的特征圖,而是根據pv-rcnn[6]中提出的key point信息,將proposal用6*6*6=216個grid points表達,grid points是從proposal中的key points均勻采樣獲得,且RoI-grid point features提取過程和key point feature提取過程是相似的。簡單來說是以grid point為中心,r為半徑的區域內提取不同尺度、不同感受野的特征,在使用2層的MLP網絡獲得終的特征表達,如圖7所示。