位置: IT常识 - 正文
推荐整理分享点云3D目标检测之——尝试SFD代码跑通(超详细!!)(点云目标检测数据集),希望有所帮助,仅作参考,欢迎阅读内容。
文章相关热门搜索词:点云3D目标检测,点云3D目标检测,点云目标检测数据集,点云3D目标检测,三维点云的目标检测方法,点云3D目标检测,点云3D目标检测,点云目标检测数据集,内容如对您有帮助,希望把文章链接给更多的朋友!
到目前为止还没跑通,但是bug实在太多了,我的每一步都有错,如果不记录下来又会有遗漏,(肯定已经遗漏了很多),在这里把能想起来的都记录一下以便不时之需。另外,本人深度学习小白,一上来跑这么难的代码我大概是脑子进水了,如果有看到的话,十分欢迎且需要加微信跟我详细交流。以下纯属我个人理解,肯定有误差,仅为个人记录,请酌情参考。 9.29更新:能跑了能跑了,喜大普奔!! 10.1更新:evaluation出结果啦,准确率还真挺高!! 10.21更新:发现了之前几个疑惑的点的原因(写在最后) 10.25更新:补齐SFD方法简介。
SFD简介Sparse Fuse Dense: Towards High Quality 3D Detection with Depth Completion. CVPR 2022. 在kitti数据集上目前排名前三,文章通俗易懂(也可能是我没看懂) (这部分后面再补吧) 文章贡献:
3D-GAF:融合点云和伪点云的网络SynAugment:针对SFD的数据增强方法CPConv:伪点云的特征提取器这里有一个疑惑是: CPConv在3D-GAF前使用,但是作者却放在了最后一位介绍它,按逻辑来讲,放在后面的应该是最不重要的,但是3D-GAF反而是里面最难理解的。 个人理解: 最主要的创新在于——之前的方法都是FOV与BEV的2D融合,而本方法将2D信息通过深度转化为3D,使得在每个ROI中提取伪点云和原始点云的3D特征(在3D网格内),再按权重融合、reshanpe、FC。(这可能就是3D-GAF放在第一位的原因吧)。但是我还是没能理解CPConv,主要是维度变换好凌乱,一会儿N个一会儿K个,感觉还是需要输出看维度。 最后一个疑惑是: 从实验结果看,没有加这些操作的准确率就很高,因为本身的baseline准确率就很高,但并不知道baseline这么高的原因是?
代码调试SFD:Github官方源码
环境配置作者提供了两种方式:Voxel-R-CNN或者OpenPCDet,此处使用了后者。OpenPCDet安装步骤提供在如下链接,特别要提醒的是该文章中sudo apt-get install nvidia-cuda-toolkit命令千万千万不要在系统中输入,否则会导致你cuda,cudnn全部重装!!!其余按照步骤来就好。另外,文章中提到mayavi包的安装会出问题,其实我没有安装mayavi包的时候,OPenPDCet就能正常运行。但是SFD还是需要安装mayavi,终究还是逃不过。由于各种原因,我的Python是3.8版本,如果你也是python3.8的话,可参考链接安装mayavi包,最终需要在图形化界面运行以下命令(如:远程桌面连接或者vnc,反正不是ssh),否则会报错。
python demo.py --cfg_file cfgs/kitti_models/pv_rcnn.yaml --ckpt pv_rcnn_8369.pth --data_path data/kitti/training/velodyne/000008.bin组织数据集接着就按github上作者提供的路径下载数据集和相关文件。需要注意的是,这里的数据有70G+,所以要事先想好你是不是要挂载目录什么的,不要像我一样傻乎乎弄了半天发现服务器存储空间不够了(我真是哭死,也没人告诉我啊)。
问题报错以下问题当你出错了再来查看,参考知乎连接包括:spconv包出错和单卡环境运行问题。
RunTimeError问题原因: 因为服务器上只有两个gpu且不知道好不好用,总之按作者提供的方式运行就会报各种cuda错误,所以做出如下修改(因为时间过去有点久了,所以应该不全)。
首先,不使用文章中的命令,在终端中输入以下命令测试:
python train.py --cfg_file cfgs/kitti_models/sfd.yaml --batch_size 2PS: 这里batch_size先设置成1就能跑起来,如果设置成2会报出很多错,下面会一一解决batch_size=2的问题。
1. DataLoader worker (pid xxx) is killed by signal 将num_workers设置为0,也就是\tools\train.py第27行,default =0
parser.add_argument('--workers', type=int, default=0, help='number of workers for dataloader')2. No CUDA GPUs are available/Cuda out of memory
# tools/train.py# 62行修改为0os.environ["CUDA_VISIBLE_DEVICES"]="0"# 这里根据你的需要来,如果gpu显存不够会报Cuda out of memory的错误# os.environ["CUDA_VISIBLE_DEVICES"]="-1" #表示用cpuKeyError问题1.KeyError: ‘KittiDatasetSFD’ 详细查看发现输出的根目录在OpenPCDet文件夹下,虽然我不知道为什么会代码会跑到这里,但是只要把OpenPCDet和SFD两个项目文件不要放在同一个文件夹下就可以解决。(即:把OpenPCDet藏得远远的)。github的issue里也有人有这个错误,不知道是不是跟我一样的情况。 cfg.ROOT_DIR总是会自动找错地方,就会发生KeyError或者DataLoader=0等问题,可以检查一下路径对不对。
2.KeyError: ‘road_plane’ 在sfd.yaml文件中第12行
USE_ROAD_PLANE: FlaseTypeError当batch_size=2时,kitti_dataset_spf.py中会报TypeError,是‘valid_noise’这个Key出了问题,参考知乎连接在for循环(约400行)前加入
data_dict = data_dict.pop('valid_noise')会报其他的错误-----说是list没有item()方法,不懂==。干脆在上一个for循环里直接删除,代码如下:
#485行左右for key, val in cur_sample.items(): (+)if key == 'valid_noise':(+)continuedata_dict[key].append(val)Sponcv包出错问题这里先说明我安装的是sponcv2.1版本,也就是自动安装的 之后会报关于sponcv的各种错误,要做以下几处修改才能解决: 1. AttributeError: module ‘spconv‘ has no attribute ‘SparseModule‘ import spconv 要改写成 import spconv.pytorch as spconv 2. 我也不太记得了,总之要按照这个链接Github把所有报错(??)的文件都更改一遍,刚开始抱着试试看的态度逐行修改,确实不报错了。 理论上是应该把所有github中提到的文件都修改一遍,但我是哪里报错改哪里,所以只改了以下文件:
data_processor.pydataset.pydetector3d_template.pyspconv_utils.pyAssertionErrorAssertionError: must be contiguous tensor model/roi_heads/sfd_head.py
#约第600行,更改如下coords = sparse_idx.int().contiguous()ModuleNotFoundError重新运行setup
cd SFDpython setup.py developcd pcdet/ops/iou3d/cuda_oppython setup.py developcd ../../../..NotImplementError或者是NAN的问题具体错误如下
File "/home/tianran/workdir/SFD/pcdet/models/roi_heads/target_assigner/proposal_target_layer.py", line 162, in subsample_roisraise NotImplementedErrorNotImplementedErrormaxoverlaps:(min=nan, max=nan)ERROR: FG=0, BG=0解决方案(此处参考知乎链接和github上的issue): (必选) 在sfd_head_utils.py的points_features[:, 3:6] /= 255.0这一行代码后增加:
from torch.nn.functional import normalizepoints_features[:, :3] = normalize(points_features[:, :3], dim=0)points_features[:, 6:] = normalize(points_features[:, 6:], dim=0)(可选) sfd.yaml文件中配置如下参数:(可选择性尝试)
LR = 0.01 #(缩小十倍)REG_Loss: giou # 换成dioubatch_size =1验证阶段assert lidar_file.exists()
# kitti_dataset_sfd.py 大约29行修改为以下内容self.split = 'test' # self.dataset_cfg.DATA_SPLIT[self.mode] #{'train': 'train', 'test': 'val'}# 62行左右,个人感觉这里有点问题,因为 self.split要么是train要么是val,不可能是test,所以就不可能跑到test路径下验证self.root_split_path = self.root_path / ('training' if self.split != 'test' else 'testing') #这里没有改,只是写出来说明一下准确率虽然运行出来了,0.7IOU大约94%,但我发现更改.txt文件并不会修改载入的数据量,似乎该载入什么数据早已在.pkl文件里写好了,这我就不能理解了,甚至产生了一个邪恶的想法。应该是因为代码太复杂我还理解不了吧,谁能告诉我原因吗? 刚开始有一点点眉目,老师就让我滚去做双目,好吧,先尝试到这里吧,花费三周时间跑代码,啊啊啊真可怕。
未完成的事情1.模型的保存 2.如何评估准确率 √ 3.准确率的问题 √ 4.gpu多卡pytorch分布式训练; 5.结果可视化 6.跑自己的数据集
更新为什么修改ImageSet文件夹下的.txt文件修改后训练的数据仍不变? 以下命令会根据你的.txt文件、配置文件等写入.pkl文件中,之后运行就只会用到.pkl文件,所以若想修改训练或测试数据集,需要再次生成一个.pkl文件。python -m pcdet.datasets.kitti.lidar_kitti_dataset create_kitti_infos会自动寻找到其他的文件夹下的文件 环境路径查找优先顺序需要调整,可参考链接中的Error7调整环境路径。上一篇:fpdisp5a.exe是什么进程 有什么作用 fpdisp5a进程查询(fp是什么文件)
友情链接: 武汉网站建设