为方便管理员更为直观地观察网络安全状况以便迅速作出应变措施, 提出了基于集对分析的网络安全态势评估模型。首先对各个传感器的数据进行预处理, 得到服务器和攻击的规范化数据, 然后利用集对分析理论融合来自多个传感器的数据得到主机的安全态势, 最后采用自下而上的层次化安全态势量化评估模型, 以评估网络的整体态势。通过对DARPA 2000数据集的分析, 证明集对分析比传统方法更能够对网络态势所处的级别进行明确划分, 更好地得出整个网络简单的安全态势。
1
用于ROS的通用传感器融合程序包 使用此框架,可以在具有通用ROS节点的C ++库中实现低级传感器融合的估计方法。 实现的方法/算法是: 加权移动平均 移动中位数 卡尔曼滤波 扩展卡尔曼滤波器 无味卡尔曼滤波器 采样重要性重采样(粒子滤波) 安装 这些软件包取决于Eigen3,因此,如果未安装(如果运行catkin_make,则会出现错误),请从。 将目录“ Eigen /”从此归档文件复制到/ usr / include / eigen3就足够了,即无需安装。 目录结构 sf_estimation:分别实现状态估计算法或过滤器的通用低层传感器融合框架。 sf_msgs:包含sf_filter节点可以发布的消息的软件包。 sf_filter:具有配置的ROS节点的源。 复制该文件夹以创建另一个具体的过滤器。 doc:代码文档,示例,教程,故障排除 示例:过滤ROS节点的一些示例配
2023-01-18 10:56:21 209KB ros particle-filter kalman-filter daisy
1
matlab建立汽车模型代码无味卡尔曼滤波器项目启动代码 自动驾驶汽车工程师纳米学位课程 写上去 该项目描述了恒定转速和速度幅度模型 (CTRV) 和无迹卡尔曼滤波器 (UKF) 的应用。 这个项目是用 C++ 编写的。 对于给定的激光雷达测量数据,RMSE 返回 [0.0771442 0.0852696 0.387216 0.250489]。 下图显示了 UKF 状态估计与地面实况及其归一化创新平方 (NIS) 计算相比的结果: 依赖关系 cmake >= v3.5 制作 >= v4.1 gcc/g++ >= v5.4 基本构建说明 克隆这个 repo。 创建一个构建目录: mkdir build && cd build 编译: cmake .. && make 运行它: ./UnscentedKF path/to/input.txt path/to/output.txt 。 您可以在“data/”中找到一些示例输入。 例如。 ./UnscentedKF ../data/obj_pose-laser-radar-synthetic-input.txt 编辑器设置 我们有意将编辑器配置
2022-12-18 16:20:34 1MB 系统开源
1
计算机视觉、激光雷达-相机多传感器融合、相机标定的坐标系描述图
2022-12-05 13:26:16 96KB 计算机视觉 slam
1
随着基于数据融合的目标检测在军事以及自然防护等领域广泛应用,越来越多的研究希望通过对检测融合系统进行优化或引入新的检测融合方法来更好地进行目标检测,从而推动相关领域的发展.基于数据融合的目标检测具有重要的学术意义和应用价值,为此,从先进的检测技术到优化创新的前沿论文等方面详细介绍基于数据融合的目标检测方法的最新研究进展.首先对融合定义、模式及其优缺点展开讨论,并总结目前该领域所面临的挑战;然后从传感器辅助方法、融合层次方法两个方面对相关研究方法进行详细的分类阐述,综述该领域的研究现状,并对所介绍的文献从检测性能、复杂程度、成本大小、检测目标(数量、动态、维度)等方面展开归纳总结;最后进行全文总结并对该领域的研究前景进行展望.
1

针对被动传感器观测的非线性问题,将无迹变换引入卡尔曼滤波算法中.进一步,针对其弱可观测性,采用多个被动传感器集中式融合跟踪策略,提出了基于无迹卡尔曼滤波的被动多传感器融合跟踪算法.以3个被动站跟踪为例进行仿真研究,结果表明所提出的算法可达到比经典的扩展卡尔曼滤波算法更高阶的跟踪精度.

1
卡尔曼定位 通过误差状态卡尔曼滤波器使用 GPS/INS/罗盘的传感器融合实现定位的 MATLAB。 MATLAB 代码大量借鉴了 Paul D. Groves 的著作《GNSS 原理、惯性和多传感器集成导航系统》,他的代码被标记为他的,并在 BSD 许可下持有。 请注意:我无法提供我的测试数据,因为它是使用通用汽车拥有的车辆收集的。请参阅初始化脚本中的注释以获取数据格式的描述,您应该能够调整自己的数据。或者,本书附带一张 CD-ROM,其中包含他的代码(完全工作的过滤器)以及用于生成测试数据的系统
2022-09-07 09:03:18 45KB matlab 文档资料 开发语言
适用于Android的传感器融合演示 此应用程序演示了各种传感器和传感器融合的功能。 来自陀螺仪,加速度计和罗盘的数据以不同的方式组合在一起,结果显示为可以通过旋转设备旋转的立方体。 在阅读完整的文档。 此应用程序中的主要新颖之处在于虚拟传感器的融合:改进的方向传感器1和改进的方向传感器2将Android旋转矢量与虚拟陀螺仪传感器融合在一起,从而获得了以前未知的稳定性和精度的姿态估计。 除了这两个传感器之外,还可以使用以下传感器进行比较: 改进的方向传感器1(Android旋转矢量和校准的陀螺仪的传感器融合-不稳定,但更准确) 改进的方向传感器2(Android旋转矢量和校准的陀螺仪的传感器融合-更稳定,但准确性更低) Android旋转向量(加速度计+陀螺仪+指南针的卡尔曼滤波融合) 校准的陀螺仪(加速度计+陀螺仪+指南针的卡尔曼滤波融合的单独结果) 重力+指南针 加速
2022-08-31 19:15:19 457KB 系统开源
1
毫米波雷达和视觉传感器融合的检测仿真matlab代码。。 资源里面部分代码展示: sensors=cell(8,1); %设置位于汽车前保险杠中央的前向远程毫米波雷达 sensors{1}=radarDetectionGenerator("SensorIndex",1,"Height",0.2,"MaxRange",174,... "SensorLocation",[egoCar.Wheelbase+ egoCar.FrontOverhang,0],"FieldOfView",[20,5]); %设置位于汽车后保险杠中央的前向远程毫米波雷达 sensors{2}=radarDetectionGenerator("SensorIndex",2,"Height",0.2,"Yaw",180,... "SensorLocation",[-egoCar.RearOverhang,0],"MaxRange",174,"FieldOfView",[20,5]);
2022-08-22 09:03:35 3KB matlab
1
该课程主要是介绍了各个传感器(如相机,IMU,激光雷达和毫米波雷达等)的基础知识,以及它们之间的对比,如何将它们进行同步(如联合标定,空间同步等)和融合(如信息融合)。同时还包含ubuntu系统下的环境配置教程,如何搭建多传感器融合所需要的环境,点云去畸变以及对其问题,多相机的同步融合实战,相机与IMU的同步实战,相机与激光雷达的同步实战,激光与IMU的同步实战,相机与IMU的融合实战,LIDAR-RADAR的融合实战。该课程适用于刚入门视觉slam的小白,对了解自动驾驶中的感知模块具有比较大的帮助,它几乎涵盖了多传感器融合课程的全部算法和内容。毕业设计研究方向是多传感器融合的小伙伴可以看一下该课程,对完成毕业论文有一个很好的促进作用。
1