位置: IT常识 - 正文

利用openpose提取自建数据集骨骼点训练st-gcn,复现st-gcn(openpose的输出)

发布时间:2024-01-16
利用openpose提取自建数据集骨骼点训练st-gcn,复现st-gcn 利用openpose提取自建数据集骨骼点训练st-gcn,复现st-gcn0、下载st-gcn

推荐整理分享利用openpose提取自建数据集骨骼点训练st-gcn,复现st-gcn(openpose的输出),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:openpose算法,openpose输出格式,openpose代码,openpose怎么用,openpose提取关节点信息,openpose代码,openpose怎么用,openpose的输出,内容如对您有帮助,希望把文章链接给更多的朋友!

参考: gitbub上fork后导入到gitee快些: st-gcn下载 也可以直接下载zip文件后解压

1、处理准备自己数据集数据集要求将相同类别的视频放到同一文件夹,我这里用到一个较老的数据集:training_lib_KTH.zip,六种行为放到六个不同文件夹。 用于st-gcn训练的数据集视频帧数不要超过300帧,5~6s的视频时长比较好,不要10几s的视频时长。要不然会报index 300 is out of bounds for axis 1 with size 300这种错误。因此对上面数据集进一步裁剪为6s的大概150帧(此视频帧率为25后面利用FFmpeg再次改变帧率为30时,时长会变长到8s)。裁剪后视频文件如下 原始数据集和裁剪为6s的数据集放在链接: 链接:https://pan.baidu.com/s/1oHQyo-c3e5YXb52b-O0STQ?pwd=x166 提取码:x1662、准备环境,搭建openpose环境搭建openpose环境是为了利用open pose提取knetics-skeleton视频的骨骼点,openpose环境的搭建可参考以下视频: openpose环境搭建 以及参考博客:windows 10下,自编译openpose代码此处注意如果用cuda,最好先下载vs后再下载cuda3、利用openpose提取自己视频骨骼数据

st-gcn作者有提供他们整理好并使用的kinetics-skeleton数据集,他们数据集格式如下图所示: 接下来参考:用自建kinetics-skeleton行为识别数据集训练st-gcn网络流程记录中的2部分对视频数据进行resize至340x256的大小,30fps的帧率。然后调用openpose的进行骨骼点数据的检测和输出。

#!/usr/bin/env python# coding:gbkimport osimport argparseimport jsonimport shutilimport numpy as npimport torchimport skvideo.io#from processor.io import IOimport toolsimport tools.utils as utils# if __name__ == '__main__':#class PreProcess(IO):class PreProcess(): def start(self): work_dir = 'D:/st-gcn' type_number = 6 action_filename_list = ['boxing', 'handclapping', 'handwaving', 'jogging', 'running', 'walking'] for process_index in range(type_number): action_filename = action_filename_list[process_index] # 标签信息 labelAction_name = '{}_{}'.format(action_filename,process_index) #labelAction_name = 'xxx_{}'.format(process_index) label_no = process_index # 视频所在文件夹 originvideo_file = 'D:/dataSet/training_lib_KTH_cut_6s/{}/'.format(action_filename) # resized视频输出文件夹 需要自己创建几个动作的文件夹 resizedvideo_file = './mydata/training_lib_KTH_cut_6s/resized/{}/'.format(action_filename) videos_file_names = os.listdir(originvideo_file) # 1. Resize文件夹下的视频到340x256 30fps for file_name in videos_file_names: video_path = '{}{}'.format(originvideo_file, file_name) outvideo_path = '{}{}'.format(resizedvideo_file, file_name) writer = skvideo.io.FFmpegWriter(outvideo_path, outputdict={'-f': 'mp4','-vcodec': 'libx264', '-s': '340x256', '-r': '30'}) reader = skvideo.io.FFmpegReader(video_path) for frame in reader.nextFrame(): writer.writeFrame(frame) writer.close() print('{} resize success'.format(file_name)) # 2. 利用openpose提取每段视频骨骼点数据 resizedvideos_file_names = os.listdir(resizedvideo_file) for file_name in resizedvideos_file_names: outvideo_path = '{}{}'.format(resizedvideo_file, file_name) # openpose = '{}/examples/openpose/openpose.bin'.format(self.arg.openpose) #openpose = '{}/OpenPoseDemo.exe'.format(self.arg.openpose) openpose = 'D:/openpose-master/build/x64/Release/OpenPoseDemo.exe' video_name = file_name.split('.')[0] output_snippets_dir = './mydata/training_lib_KTH_cut_6s/resized/snippets/{}'.format(video_name) output_sequence_dir = './mydata/training_lib_KTH_cut_6s/resized/data' output_sequence_path = '{}/{}.json'.format(output_sequence_dir, video_name) #label_name_path = '{}/resource/kinetics_skeleton/label_name_action.txt'.format(work_dir)#自己创建好标签文档,里面文档内写好动作名称 label_name_path = '{}/resource/kinetics_skeleton/label_name_action{}.txt'.format(work_dir,process_index) with open(label_name_path) as f: label_name = f.readlines() label_name = [line.rstrip() for line in label_name] # pose estimation openpose_args = dict( video=outvideo_path, write_json=output_snippets_dir, display=0, render_pose=0, model_pose='COCO') command_line = openpose + ' ' command_line += ' '.join(['--{} {}'.format(k, v) for k, v in openpose_args.items()]) shutil.rmtree(output_snippets_dir, ignore_errors=True) os.makedirs(output_snippets_dir) os.system(command_line) # pack openpose ouputs video = utils.video.get_video_frames(outvideo_path) height, width, _ = video[0].shape # 这里可以修改label, label_index video_info = utils.openpose.json_pack( output_snippets_dir, video_name, width, height, labelAction_name, label_no) if not os.path.exists(output_sequence_dir): os.makedirs(output_sequence_dir) with open(output_sequence_path, 'w') as outfile: json.dump(video_info, outfile) if len(video_info['data']) == 0: print('{} Can not find pose estimation results.'.format(file_name)) return else: print('{} pose estimation complete.'.format(file_name))if __name__ == '__main__': p=PreProcess() p.start()

运行代码之前提前再st-gcn里面建好/mydata/training_lib_KTH_cut_6s_resized文件夹,并在文件夹中将六种行为的文件夹也创建好,‘boxing’, ‘handclapping’, ‘handwaving’, ‘jogging’, ‘running’, ‘walking’。运行之前也需要创建标签文档0到5: 每个文档里面是100个动作标签 运行完如下所示: 此时打开data能看到所有视频的骨骼数据,snippets里面每个json文件存的是单帧骨骼数据,data里面每个json文件都是一个视频的所有骨骼点数据。data里面json文件打开如下图所示:

4、整理骨骼点数据,生成st-gcn运行的格式利用openpose提取自建数据集骨骼点训练st-gcn,复现st-gcn(openpose的输出)

首先将data里面的数据分成训练集、验证集、测试集按照6:2:2划分. 将01到15复制kinetics_train,16-20放到val,21-25放到test。

import jsonimport osif __name__ == '__main__': train_json_path = './mydata/kinetics-skeleton/kinetics_train' val_json_path = './mydata/kinetics-skeleton/kinetics_val' test_json_path = './mydata/kinetics-skeleton/kinetics_test' output_train_json_path = './mydata/kinetics-skeleton/kinetics_train_label.json' output_val_json_path = './mydata/kinetics-skeleton/kinetics_val_label.json' output_test_json_path = './mydata/kinetics-skeleton/kinetics_test_label.json' # train_json_names = os.listdir(train_json_path) val_json_names = os.listdir(val_json_path) test_json_names = os.listdir(test_json_path) train_label_json = dict() val_label_json = dict() test_label_json = dict() for file_name in train_json_names: name = file_name.split('.')[0] json_file_path = '{}/{}'.format(train_json_path, file_name) json_file = json.load(open(json_file_path)) file_label = dict() if len(json_file['data']) == 0: file_label['has_skeleton'] = False else: file_label['has_skeleton'] = True file_label['label'] = json_file['label'] file_label['label_index'] = json_file['label_index'] train_label_json['{}'.format(name)] = file_label print('{} success'.format(file_name)) with open(output_train_json_path, 'w') as outfile: json.dump(train_label_json, outfile) for file_name in val_json_names: name = file_name.split('.')[0] json_file_path = '{}/{}'.format(val_json_path, file_name) json_file = json.load(open(json_file_path)) file_label = dict() if len(json_file['data']) == 0: file_label['has_skeleton'] = False else: file_label['has_skeleton'] = True file_label['label'] = json_file['label'] file_label['label_index'] = json_file['label_index'] val_label_json['{}'.format(name)] = file_label print('{} success'.format(file_name)) with open(output_val_json_path, 'w') as outfile: json.dump(val_label_json, outfile) for file_name in test_json_names: name = file_name.split('.')[0] json_file_path = '{}/{}'.format(test_json_path, file_name) json_file = json.load(open(json_file_path)) file_label = dict() if len(json_file['data']) == 0: file_label['has_skeleton'] = False else: file_label['has_skeleton'] = True file_label['label'] = json_file['label'] file_label['label_index'] = json_file['label_index'] test_label_json['{}'.format(name)] = file_label print('{} success'.format(file_name)) with open(output_test_json_path, 'w') as outfile: json.dump(test_label_json, outfile)

生成如下: 再利用stgcn训练代码中自带了数据转换代码tools/kinetics_gendata.py,使用该脚本将kinetics-skleton数据集转换为训练使用的npy与pkl文件。 这里参考博客:数据转换中的三数据转换。以下地方需要修改:

num_person_in=1, #observe the first 5 persons num_person_out=1, #then choose 2 persons with the highest score part = ['train', 'val','test']

frame不用修改即可前面视频已经裁剪过 运行脚本后:

5、训练st-gcn网络

这部分参考st-gcn训练自建行为识别数据集中的5、6部分即可 我的train.yaml是这样修改的:

work_dir: ./work_dir/recognition/kinetics_skeleton/ST_GCN# feederfeeder: feeder.feeder.Feedertrain_feeder_args: random_choose: True random_move: True window_size: 150 # data_path: ./data/Kinetics/kinetics-skeleton/train_data.npy# label_path: ./data/Kinetics/kinetics-skeleton/train_label.pkl data_path: ./mydata/kinetics-skeleton/train_data.npy label_path: ./mydata/kinetics-skeleton/train_label.pkltest_feeder_args:# data_path: ./data/Kinetics/kinetics-skeleton/val_data.npy# label_path: ./data/Kinetics/kinetics-skeleton/val_label.pkl data_path: ./mydata/kinetics-skeleton/val_data.npy label_path: ./mydata/kinetics-skeleton/val_label.pkl# modelmodel: net.st_gcn.Modelmodel_args: in_channels: 3 num_class: 6 edge_importance_weighting: True graph_args: layout: 'openpose' strategy: 'spatial'# training#device: [0,1,2,3]device: [0]batch_size: 32test_batch_size: 32#optimbase_lr: 0.1step: [20, 30, 40, 50]num_epoch: 50

执行训练代码:

python main.py recognition -c config/st_gcn/kinetics-skeleton/train.yaml6、测试

可修改test.yaml利用刚刚自己的测试集进行测试

weights: ./work_dir/recognition/kinetics_skeleton/ST_GCN/epoch50_model.pt#weights: ./models/st_gcn.kinetics.pt# feederfeeder: feeder.feeder.Feedertest_feeder_args:# data_path: ./data/Kinetics/kinetics-skeleton/val_data.npy# label_path: ./data/Kinetics/kinetics-skeleton/val_label.pkl# data_path: ./mydata/kinetics-skeleton/val_data.npy# label_path: ./mydata/kinetics-skeleton/val_label.pkl data_path: ./mydata/kinetics-skeleton/test_data.npy label_path: ./mydata/kinetics-skeleton/test_label.pkl# modelmodel: net.st_gcn.Modelmodel_args: in_channels: 3 num_class: 6 edge_importance_weighting: True graph_args: layout: 'openpose' strategy: 'spatial'# test phase: testdevice: 0test_batch_size: 32

然后执行

python main.py recognition -c config/st_gcn/kinetics-skeleton/test.yaml

注:作者也是一位初学者,此文章供参考讨论,有什么问题欢迎讨论多多指教!

本文链接地址:https://www.jiuchutong.com/zhishi/297554.html 转载请保留说明!

上一篇:Vue插槽(vue插槽的使用场景)

下一篇:快速搞懂Pinia及数据持久化存储(详细教程)

  • 城镇土地使用税的计税依据
  • 人力资源公司劳务外包
  • 个税退还会计分录
  • 利润分配未分配利润和未分配利润的区别
  • 税务申报差额征收 服务减除清单
  • 企业所得税汇算清缴操作流程
  • 在业跟续存有什么不一样
  • 车保险备注栏车船税如何记账
  • 个税申报填写的工资是应发还是实发
  • 税金及附加有啥
  • 企业咨询费入什么科目
  • 营业额和合同额的区别
  • 营改增建筑安装服务发票要求
  • 住宿费发票可以抵扣进项税吗
  • 银行收回客户误扣的费用怎么处理?
  • 买车押金合同要注意什么手续
  • 增值税普通发票和普通发票的区别怎么交税
  • 小规模纳税人开票要交印花税吗
  • 金税盘如何红冲已抵扣专票
  • 长期待摊费用要设明细科目吗
  • 党员参加集体活动规定
  • 发票联丢失怎么做账
  • 季度不超过30万免税分录
  • 小规模租赁收入申报流程
  • 临时工工资单怎么做
  • 预借差旅费计入其他应收款吗
  • 债务利率的公式
  • win7对话框文本框在哪里
  • 前端获取当前地址
  • pc安装苹果系统
  • php imagecreatetruecolor 创建高清和透明图片代码小结
  • PHP:mb_detect_order()的用法_mbstring函数
  • 免抵税额交地方教育附加吗
  • PHP:base64_encode()的用法_url函数
  • mis.off c n
  • 转租收入是否缴纳房产税江苏
  • 委托代销商品发票是谁开给客户
  • php根据经纬度计算距离
  • 老生常谈的常是什么意思
  • 固定资产加速折旧最新政策2022
  • 增值税进项发票丢失最新处理办法
  • php如何实现
  • 图像识别算法
  • 智能商亭超级大骗局
  • 关税对企业有什么影响
  • 收回已转销的应收账款是什么意思
  • 未开票收入缴纳增值税做账
  • 出口产品报关多少天
  • 残疾人保障金汇算清缴的处理
  • 使用mysqldump备份数据库
  • 个人抬头的发票可以入账吗
  • 无形资产账面价值计算公式
  • 周转材料怎么做分录
  • 没有发票如何做会计分录
  • 往来账目
  • 项目前期的研发费用
  • 单位租赁个人房子怎么缴纳房产税
  • 现金支票存根联丢失怎么办
  • Win10预览版怎么变回正式版
  • win10系统打不开jpg图片
  • hptlbxfx.exe
  • win10如何打开defender
  • linux mangle
  • bootstrap栅格布局
  • unity www读取本地视频文件和外部视频文件 播放视频动画和视频声音
  • dos 浏览器
  • jquery选择器的使用
  • 后台运行bat定时器程序示例分享
  • Node.js中的construct构造函数
  • 通过制作日晷我们可以探索发现一天之中
  • json 日期类型
  • python中中文字符
  • js中key
  • 税务咨询电话是什么
  • 如何查询车辆购置税发票
  • 车辆购置税查询平台打印
  • 财政云操作视频
  • 安徽国税局发票查询系统
  • 取消税控盘服务费
  • 常设机构怎么缴纳所得税
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号