1.一种基于DS‑GNN算法的多传感器融合方法,其特征在于,包括如下步骤:步骤1:将摄像头和毫米波雷达的时空融合,实现摄像头和毫米波雷在空间坐标系上的一致和时间上的同步;
步骤2:采用基于全局最近邻算法分别对毫米波雷达和摄像头采集的观测值与目标源进行一一匹配,从而来确认雷达和摄像头的哪些观测值由同一辆车产生;
步骤3:采用基于D‑S证据理论数据融合模型对获得的雷达和摄像头匹配值进行融合;
所述步骤1对摄像头和毫米波雷达的时空融合,根据毫米波雷达距离和方位信息,应用不同的空间变换矩阵实现视觉和毫米波雷达的空间融合;德尔福毫米波雷达的采样频率为
20Hz,摄像头的采样频率为60Hz,以雷达获取的数据为基准,采用多线程同步的方法解决传感器时间融合问题,其中雷达采集模块以雷达数据采集周期正常运行,使图像采集模块根据雷达运行相对应的进行触发运行,也就是说在当前时刻摄像机传感器与雷达传感器同时工作的下一时刻控制运行周期短的摄像机传感器停止采集数据,直到雷达传感器再次采集数据时再触发摄像机传感器进行数据采集,以此达到同一时刻采集数据的目的;
采用基于全局最近邻算法对毫米波雷达采集的观测值与目标源进行一一匹配,具体步骤如下:Pro1:目标状态方程:
Xi(k)=f[Xi(k‑1)]+v(k) (1)其中:Xi(k)表示k时刻目标i的状态向量;f[·]表示状态函数;v(k)表示k时刻协方差Q(k)为零均值高斯白噪声的过程噪声;假设在k‑1时目标的状态已知,同时毫米波雷达的观测方程为:Z1,i(k)=h1[Xi(k)]+w1(k) (2)其中:Z1,i(k)为k时刻毫米波雷达对目标i的观测向量;h1[·]表示毫米波雷达的观测函数;w1[·]表示毫米波雷达的协方差R1(k)为零均值高斯白噪声的测量噪声;
Pro2:根据k‑1时刻给出的目标状态,利用扩展卡尔曼滤波方法计k时刻目标的状态预测值 以及k时刻目标的预测误差协方差其中,F表示f[·]的雅克比矩阵;P1(k‑1|k‑1)表示雷达k‑1时刻的状态协方差;根据式(3)和式(4)得到的k时刻目标的状态预测值以及预测误差协方差,计算雷达的量测预测值Z1,pre(k|k‑1)、新息协方差值S1(k)及卡尔曼增益K1(k):其中,H1表示h1[·]的雅克比矩阵;R1(k)表示毫米波雷达的协方差;利用全局最近邻(GNN)数据关联算法对k时刻的雷达量测与目标源进行关联,确定雷达量测是否落入椭圆跟踪门内;
Pro3:由椭圆跟踪门规则得到的关联区域为:
2
其中:d1,j为雷达的第j个量测与目标源的统计距离,服从自由度为m的χ分布,m为雷达的有效量测个数;G为限定阈值,规定G取3时,雷达有效量测都会包含在区域中;v1(j)为雷达的第j个量测的滤波新息,满足v1,k(j)=Z1,j(j)‑Z1,pre(j);
Pro4:将雷达与目标源的关联量测数据输入到跟踪滤波器中,然后更新得到协方差矩阵 和状态估计向量其中:I为单位矩阵。
2.权利要求1所述的一种基于DS‑GNN算法的多传感器融合方法,其特征在于:采用基于全局最近邻算法对摄像头采集的观测值与目标源进行一一匹配,具体步骤如下Pro4.1:目标状态方程:Xi(k)=f[Xi(k‑1)]+v(k) (11)其中:Xi(k)表示k时刻目标i的状态向量;f[·]表示状态函数;v(k)表示协方差Q(k)为零均值高斯白噪声的过程噪声;假设在k‑1时目标的状态已知,同时毫米波雷达的观测方程为:Z2,i(k)=h2[Xi(k)]+w2(k) (12)其中:Z2,i(k)为k时刻摄像头对目标i的观测向量;h2[·]表示摄像头的观测函数;w2[·]表示摄像头的协方差R2(k)为零均值高斯白噪声的测量噪声;
利用毫米波雷达得到的状态估计向量和协方差矩阵作为摄像头的初始状态预测值和协方差矩阵 然后结合摄像头的量测数据进行预测;
Pro4.2:摄像头的一步预测状态估计值Z2,pre(k|k‑1)、预测误差协方差矩阵S2(k)以及卡尔曼增益K2(k):其中,H2分别表示h2[·]的雅克比矩阵;R2(k)表示摄像头的协方差;同样利用全局最近邻(GNN)数据关联算法对k时刻的摄像头量测与目标源进行关联;
Pro4.3:确定摄像头量测是否落入椭圆跟踪门内,则需要满足的条件为:其中:d2,j为摄像头获得的第j个量测与目标源的统计距离;G为限定阈值,规定G取3时,摄像头有效量测都会包含在区域中;v2(j)为第j个量测的滤波新息,满足v2,k(j)=Z2,i(j)‑Z2,pre(j);
Pro4.4:对跟踪门内摄像头采集的观测值进行状态估计,得到其状态估计值 和协方差矩阵其中:I为单位矩阵。
3.根据权利要求1所述的一种基于DS‑GNN算法的多传感器融合方法,其特征在于:所述步骤3中,雷达和摄像头通过全局最近邻算法获得k时刻的目标状态估计值 和量测值 通过基本概率分配函数分别计算其概率分配值Ai,其中i=1,2和Bi,其中i=1,
2然后将概率分配值输入到融合中心进行融合和目标状态更新。
4.根据权利要求3所述的一种基于DS‑GNN算法的多传感器融合方法,其特征在于:所述步骤3采用基于D‑S证据理论数据融合模型对获得的雷达和摄像头匹配值进行融合,具体步骤如下:Pro6.1:在k时刻,雷达和摄像头经过数据关联算法计算后得到的目标状态估计值其中i=1,2在k时刻的量测值为 其中i=1,2然后我们可以获得两组量测证据,为:式中:m1(Ai)表示k时刻雷达和摄像头状态估计值的基本概率赋值函数,m2(Bi)表示k时刻雷达和摄像头量测值的基本概率赋值函数;
Pro6.2:通过式(19)和式(20)得到的基本概率赋值函数,使用D‑S证据理论合成公式计算证据中每个元素的权重值,得到其权重系数μi:式中: 为两组证据的冲突函数;μi为权重系数;冲突值表示两组
量测证据间的相关情况,冲突值越大,说明两组量测证据间的相异性越大,相关性越小,相反,则表示两组量测证据间的相关性越大;因此,通过对两侧证据进行数据融合可以按照实际情况来修改,从而得到融合后的权重系数μi;
Pro6.3:通过以上得到的权重系数,我们可以得到综合状态更新方程为:协方差更新方程为:
其中:I为单位矩阵;Ri(k),其中i=1,2分别表示雷达和摄像头的协方差;Hi(k),其中i=1,2分别表示雷达观测函数h1[·]和摄像头观测函数h2[·]的雅克比矩阵;Ki(k),其中i=1,2分别表示雷达和摄像头的卡尔曼增益;Pi(k|k‑1)i=1,2表示雷达和摄像头k‑1时刻的状态协方差。