欢迎来到知嘟嘟! 联系电话:13095918853 卖家免费入驻,海量在线求购! 卖家免费入驻,海量在线求购!
知嘟嘟
我要发布
联系电话:13095918853
知嘟嘟经纪人
收藏
专利号: 2018106640866
申请人: 中南大学
专利类型:发明专利
专利状态:已下证
专利领域: 计算;推算;计数
更新日期:2024-12-26
缴费截止日期: 暂无
价格&联系人
年费信息
委托购买

摘要:

权利要求书:

1.一种行人局部特征大数据混合提取方法,其特征在于,包括以下步骤:步骤1:构建行人运动数据库;

采集行人在摄像头各拍摄方向下的各种运动姿势与所处道路位置的视频,其中,所述拍摄方向包括面向镜头正前、左前、右前、侧面、正后、左后以及右后方向七个方向,所述姿势包括行走、跑步以及站立三种;

步骤2:对行人运动数据库中的视频进行图像提取,并对提取后的图像预处理,获得每帧图像的行人检测框,再提取出同一行人在连续图像帧中的行人检测框图像;

步骤3:对每一幅行人检测框图像进行灰度化处理,合成同一行人在连续图像帧中的行人检测框图像对应的灰度图像的运动能量图,并提取所述运动能量图的HOG特征;

步骤4:构建基于支持向量机的行人运动姿势识别模型;

将各行人在连续图像帧对应的运动能量图作为输入数据,以对应的行人的姿势作为输出数据,对支持向量机进行训练;

站立姿势输出对应为[001],行走姿势输出对应为[010],奔跑姿势输出对应为[100];

所述支持向量机参数设置,输入层节点数对应运动能量图像素个数x,输出层节点为3,最大迭代次数为900,学习率为0.0001,阈值为0.00001;

步骤5:利用基于支持向量机的行人运动姿势识别模型,判断当前视频中行人姿势;

将当前视频按照步骤2提取同一行人在连续帧图像中的行人检测框图像,并输入基于支持向量机的行人运动姿势识别模型中,获得对应的姿势,进行姿势辨别;

步骤6:计算同一行人在连续帧图像中行人检测框左下角顶点的像素坐标变化序列,并计算获得行人在X轴和Y轴方向上的瞬时速度序列,得到行人实时速度;

步骤7:根据路口环境下的三维立体场景,实时得到图像中行人的位置信息,结合行人姿势以及实时速度,获得行人的实时运动特征;

根据行人的实时运动特征,对行车道路上的车辆进行行人行为级别预警;

所述行为级别包括安全、威胁以及危险三个级别;

安全行为包括行人距离车行道路一米之外处于站立姿势下,行人在人行道路上且距离车行道路一米以外沿车行道路平行方向或背向车行道路处于行走姿势下,背向车行道路处于跑步姿势;

威胁行为包括行人在人行道路上距离车行道路一米之内,且位于人行道路中处于站立姿势下,距离车行道路边缘一米以内处于跑步姿势下;

危险行为包括行人在人行道路上朝向车行道路方向或行人在车行道路中处于跑步姿势下,以及在车行道路中处于行走姿势下;

当处于威胁行为中行人的行走速度大于1.9m/s或跑步速度大于8m/s时,威胁行为升级为危险行为。

2.根据权利要求1所述的方法,其特征在于,使用教与学算法对基于支持向量机的行人运动姿势识别模型中的支持向量机的惩罚系数c、核参数g进行优化,具体步骤如下:步骤A1:将学员个体成绩作为支持向量机的惩罚系数和核参数,初始化教与学算法参数;

随机初始化所有班级学员个体成绩,种群规模为Np,取值范围为[50,180],作为搜索空间维数的学生所学科目数为对应惩罚系数和核参数个数,学习因子Ct,取值范围[0.3,

1.3];

步骤A2:设置适应度函数,并令迭代次数t=1;

依次将学员个体成绩对应的权值和阈值代入基于支持向量机的行人运动姿势识别模型中,并利用学员个体成绩确定的基于支持向量机的行人运动姿势识别模型确定输入的同一行人在连续帧图像中的行人检测框图像中的行人姿势,将同一行人在连续帧图像中的行人检测框图像的行人姿势检测值与对应的行人姿势实际值之差的倒数作为第一适应度函数f1(x);

步骤A3:选取第一适应度函数值最大的学员个体成绩的学员作为老师,并以当前老师对其余学员个体教学,提高学员个体成绩;

其中, 表示班级中学员个体i在迭代次数为t+1时的成绩, 表示班级中学员个体i在迭代次数为t时的成绩;Mean为班级所有学员个体的初始成绩的平均值, 表示老师的成绩,T为教学因子,T=round[1+rand(0,1)],round为四舍五入法取整函数,rand(0,1)为随机函数,在(0,1)之间随机取值;

步骤A4:学员个体之间相互学习;

每一个学员个体在班级中随机挑选另一名学员个体进行相互学习,通过成绩好的学员个体带成绩差的学员个体,提高学员个体成绩,具体公式如下:其中, 分别是学员个体i和学员个体k的迭代次数为t时的第一适应度函数值, 为在迭代次数为t时,班级中除学员个体i以外随机选择的学员个体k的成绩;

步骤A5:班级中所有学员个体成绩更新;

如果学员个体在迭代次数t+1的成绩大于在迭代次数t时的成绩,则,以迭代次数为t+1时的成绩作为学员个体的当前成绩,否则,以迭代次数为t时的成绩作为学员个体的当前成绩;

步骤A6:判断是否达到最大迭代次数,若满足则退出,否则,令t=t+1,转入步骤B3,直到满足最大迭代次数,输出最好学员个体成绩对应的支持向量机的惩罚系数和核参数,获得基于支持向量机的行人运动姿势识别模型。

3.根据权利要求1所述的方法,其特征在于,所述行人实时速度为其中, 和 分别表示行人在X轴方向和Y轴方向的瞬时速度,ΔWj=k|w2‑w1|=k|x2×P‑x1×P|,ΔLj=|f(l2)‑f(l1)|,l1=(N‑y1)×P,l2=(N‑y2)×P,

行人目标点在前一帧图像和当前帧图像中的像素坐标分别为(x1,y1)和(x2,y2);l1和l2分别表示行人目标点在相邻两帧图像中距离显示屏Y轴边缘的距离;

k表示实际场景距离与显示屏中场景成像距离的比值,M和N分别表示显示屏中X轴和Y轴方向的总像素点的个数;P表示显示屏中每个像素点的长度,MP、NP分别为整个屏幕的X轴和Y轴的总长度;ΔWj和ΔLj分别表示行人目标点在相邻两帧图像中沿X轴和Y轴方向产生的位移;

AB表示深度摄像头到行人的距离,α表示深度摄像头到行人之间的连线和地平面之间的夹角,θ为深度摄像头到行人之间的直线与成像平面的夹角,m为帧数。

4.根据权利要求3所述的方法,其特征在于,所述行人目标点为行人检测框图像的左下角像素点。

5.根据权利要求4所述的方法,其特征在于,对行人图像帧进行预处理,并对预处理后的图像设置行人检测框、行人目标标识以及行人位置标签向量,构建行人轨迹;

所述行人检测框是行人图像帧中行人轮廓的最小外接矩形;

所述行人目标标识是所有行人图像帧中出现的不同行人的唯一标识P;

所述行人位置标签向量的表达形式为[t,x,y,a,b],t表示当前行人图像帧属于监控视频中的第t帧,x和y分别表示行人图像帧中的行人检测框的左下角的横坐标和纵坐标,a和b分别表示行人检测框长和宽;

前一帧行人图像中的行人在后一帧行人图像中的出现结果是指如果前一帧行人图像中的行人,在后一帧行人图像中出现,则该行人的跟踪结果为1,否则为0;若行人跟踪结果为1,则将后一帧行人图像中出现的对应行人位置标签向量添加至行人轨迹中。