卡尔曼滤波原理及应用(一)

一.状态空间方程

系统的状态空间方程描述了系统的动态行为和状态演化过程。它由两个方程组成:状态方程和观测方程。系统的状态空间表达式简写为:

变量描述如下:

  • x(t) 是系统的状态向量,表示系统在时间 𝑡的状态。
  • 𝑢(𝑡) 是系统的输入向量,表示系统在时间 𝑡的输入。
  • 𝑦(𝑡) 是系统的输出向量,表示系统在时间 𝑡的观测输出。
  • A 是状态矩阵,描述系统状态的演化规律。
  • B 是输入矩阵,描述输入对系统状态的影响。
  • C 是观测矩阵,描述状态对观测输出的映射关系。
  • D 是直接传递矩阵,描述输入对观测输出的直接影响。

框图如下:

观测器(也称为状态观测器)是一种用于估计系统状态的非递归算法。观测器通常基于系统的输出(观测)和已知的系统模型,通过最小化观测误差来估计系统的状态。观测器可以是线性的或非线性的,它们的设计依赖于系统的特性和观测数据的可用性,下图为一个开环的观测器:

事实上,若没有反馈的话,开环观测器的误差会不断增大,最后导致观测器不再贴合观测的系统,我们可以引入反馈环节用于修正误差。卡尔曼滤波器可以看作是一种特殊的观测器,它利用系统的动态模型和观测数据来估计状态。卡尔曼滤波器中的状态估计和协方差更新步骤与观测器中的状态估计和观测误差最小化步骤类似。在卡尔曼观测器中,反馈增益K就为卡尔曼增益:

其中为引入反馈增益修正后的后验估计,为先验估计。在没有反馈机制的情况下,观测器的输出不会受到状态估计误差的修正。如果观测噪声较大或者观测模型不准确,观测器的输出可能会与真实状态之间存在较大的误差。随着时间的推移,这些误差可能会逐渐累积并导致状态估计的误差增大。因此在引入反馈增益K的基础上,将上述框图改为离散化得到:

因此,要确定的就是卡尔曼增益K。

二.理论推导部分

由上图可知,卡尔曼滤波器,实际上就是反馈增益K为卡尔曼增益的观测器,核心在于找到一个K使得误差的协方差最小,记后验估计误差如下:

)越小时,也就是误差协方差越小时,观测器越逼近于真实系统,故实际需要求的卡尔曼增益就是使得)最小时的,即:

考虑过程噪声以及观测噪声,得到系统的状态空间方程:

又由于:

则化简得到:

两边同时加上得到:

记后验误差为:

记先验误差为:

其中为单位矩阵,将本式带入到误差表达式中得到:

为简化计算,将后验 误差协方差矩阵记作,先验 误差协方差矩阵记作,观测噪声的协方差矩阵为得到:

最终要求得的最小化的目标值,实际上就是协方差矩阵对角线的元素和:

化简得到:

考虑到则上述方程对卡尔曼增益求导,解出使误差协方差最小时的卡尔曼增益

将所求的卡尔曼增益代入到后验 误差协方差矩阵的表达式中得出:

故在上述所有公式中,唯一还没有确定的只剩下先验 误差协方差矩阵,确定过程如下:

三.总结

至此卡尔曼滤波的五个公式均推导完毕,总结一下就是:

1)状态观测器:

2)预测部分:

①先验估计:

②先验协方差误差:

3)校正部分:

①卡尔曼增益:

②更新协方差误差:

③后验估计:

相关推荐
jndingxin5 分钟前
OpenCV 图形API(63)图像结构分析和形状描述符------计算图像中非零像素的边界框函数boundingRect()
人工智能·opencv·计算机视觉
旧故新长10 分钟前
支持Function Call的本地ollama模型对比评测-》开发代理agent
人工智能·深度学习·机器学习
微学AI23 分钟前
融合注意力机制和BiGRU的电力领域发电量预测项目研究,并给出相关代码
人工智能·深度学习·自然语言处理·注意力机制·bigru
知来者逆34 分钟前
计算机视觉——速度与精度的完美结合的实时目标检测算法RF-DETR详解
图像处理·人工智能·深度学习·算法·目标检测·计算机视觉·rf-detr
一勺汤37 分钟前
YOLOv11改进-双Backbone架构:利用双backbone提高yolo11目标检测的精度
人工智能·yolo·双backbone·double backbone·yolo11 backbone·yolo 双backbone
阿让啊39 分钟前
C语言中操作字节的某一位
c语言·开发语言·数据结构·单片机·算法
武汉唯众智创39 分钟前
高职人工智能技术应用专业(计算机视觉方向)实训室解决方案
人工智能·计算机视觉·人工智能实训室·计算机视觉实训室·人工智能计算机视觉实训室
এ᭄画画的北北39 分钟前
力扣-160.相交链表
算法·leetcode·链表
Johny_Zhao1 小时前
MySQL 高可用集群搭建部署
linux·人工智能·mysql·信息安全·云计算·shell·yum源·系统运维·itsm
一只可爱的小猴子1 小时前
2022李宏毅老师机器学习课程笔记
人工智能·笔记·机器学习