安全公司报告
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202210297715.2 (22)申请日 2022.03.24 (71)申请人 南京航空航天大 学 地址 210016 江苏省南京市秦淮区御道街 29号 (72)发明人 袁家斌 刘续 尚玉叶 赵冉  邰爱兵 胡坤松  (74)专利代理 机构 南京瑞弘专利商标事务所 (普通合伙) 32249 专利代理师 吴旭 (51)Int.Cl. G06V 10/80(2022.01) G06V 10/82(2022.01) G06V 10/774(2022.01) G06F 30/13(2020.01)G06F 30/27(2020.01) G06V 20/10(2022.01) G06N 3/04(2006.01) G06N 3/08(2006.01) G06K 9/62(2022.01) G06V 10/44(2022.01) G06F 111/08(2020.01) (54)发明名称 一种基于机器视觉的机场特种车辆避障方 法 (57)摘要 本发明公开了一种基于机器视觉的机场特 种车辆避障方法, 包括以下步骤: 对机场场景仿 真, 使用单目摄像机和Velodyne  64线激光雷达 采集数据信息; 对传感器收集到的点云数据进行 预处理; 针对点 云数据采用RandLA ‑Net模型直接 处理训练数据集并对其进行特征提取; 使用卷积 神经网络ResNet对RGB图像进行特征提取; 将两 种类型的特征作为融合网络的输入, 通过组合并 抽象特征, 输出目标对象的3D边界框, 检测障碍 物信息, 实现避障。 本发明将融合后的多维度特 征信息首次应用于民航地勤车辆服务领域, 通过 识别障碍物, 实现机场特种车辆的安全 避障。 权利要求书2页 说明书5页 附图2页 CN 114863228 A 2022.08.05 CN 114863228 A 1.一种基于 机器视觉的机场特种车辆避障方法, 其特 征在于, 包括以下步骤: S1.对机场 场景仿真, 使用摄 像机和激光雷达采集数据信息; S2.对传感器收集到的点云数据进行 预处理; S3.针对点云数据采用RandLA ‑Net模型直接处 理训练数据集并对其进行 特征提取; S4.使用残差神经网络ResNet对RGB图像进行 特征提取; S5.融合两种类型数据, 通过对这些特征组合抽象, 输出目标对象的3D边界框, 检测障 碍物信息, 实现避障。 2.根据权利要求1所述的基于机器视觉的机场特种车辆避障方法, 其特征在于, 所述步 骤S1具体为: S11.使用Unity3D软件建立120m*120m的机场实时场景图, 将三维场景以.obj格式导 出; S12.将场景图导入blensor软件, 选用Velodyne  64线的激光雷达, 调整扫描距离为 120m, 将获取的点云数据保存为.pcd文件; S13.将单目摄 像机和激光雷达调整至相同角度, 采集图像, 作为实验需要的输入数据; S14.将.pcd文件导入CloudCompare软件, 给场景 中物体添加label标签, 保存为.txt文 本文件, 作为实验需要的输入数据。 3.根据权利要求1所述的基于机器视觉的机场特种车辆避障方法, 其特征在于, 所述步 骤S2具体为: S21.对场景进行网格采样, 将整个场景均匀划分为若干个立方体, 对每个立方体内的 点进行采样, 这里选取的网格边长为0.04体素, 在每一个网格中采用随机选取一个点的策 略, 所有采样后的数据用来训练模型; 假设原始场景具有N个点, 则随机采样后选取了n个 点; S22.对n个采样点的X, Y, Z三维坐标进行平移, 使得X, Y, Z均大于等于0, 对RGB颜色参数 进行归一 化操作; S23.对每一个场景中下采样后的点坐标建立KDTree, 其作用是代替传统的KNN算法, 以 便查找邻近点, 达 到使用下采样点预测原 始点的目的。 4.根据权利要求1所述的基于机器视觉的机场特种车辆避障方法, 其特征在于, 所述步 骤S3具体为: S31.基于欧式距离获取S23中每个采样点最近的K个邻近点,其中采样点的三维坐标表 示为pi, K个邻近点的三维坐标集 合表示为{pi1…pik…piK}; S32.将采样点的三维坐标pi, 邻近点k的三维坐标pik, 相对坐标(pi‑pik)以及欧式距离‖ pi‑pik‖连接形成相对点位置编码, 编码后的相对点位置坐标用rik表示, 计算公式为: S33.将邻近点k的三 维坐标pik对应的特征与编 码后的相对点位置坐标 连接到一起得 到新的点特征, 为了避免有用信息丢失, 将输出的邻近 点特征向量 聚合在一起 表示为采样点 i的局部几何特 征集合 计算公式为: S34.由于K个邻近点距离中心点的相对位置存在差异, 采用注意力机制来自动学习和权 利 要 求 书 1/2 页 2 CN 114863228 A 2聚合邻近点特征集中的有用信息; g( ·)是一个由多层感知机组成的共享函数, 为每个点学 习一个单独的分值, 称为注意力得分 计算公式为: 式中: W为共享多层感 知机的可学习权值; 最终得到的每个采样点i的特征 表示为所有邻域点特征和注意力得 分加权求和, 计算公式为: S35.为了保留点云的整体细节, 充分展现全局特征, 将步骤S31 ‑S34重复两次, 将感受 野由K个邻近点扩展到K2个领近点, 相比于直接增大K近邻搜索中 的K值而言, 这对增大每个 点的感受野以及促进邻域 点之间的特 征传播来讲是一种更加廉价高效的方式。 5.根据权利要求1所述的基于机器视觉的机场特种车辆避障方法, 其特征在于, 所述步 骤S4具体为: S41.网络的输入为224*224*3, 经过特征提取的5次卷积计算, 特征图大小为224/25* 224/25, 因此输出为7*7*2048, 然后池化层将其 转化成一个特 征向量。 6.根据权利要求1所述的基于机器视觉的机场特种车辆避障方法, 其特征在于, 所述步 骤S5具体为: S51.将步骤S34和S41得到 的特征向量作为输入, 以3D点作为密集的空间锚点, 经过若 干个全连接层后预测每一个点到附近盒角落 位置的空间偏移; S52.使用损失函数回归点云中每一个点的空间偏移量, 损失函数L包括地面实框与预 测框的偏 移损失函数、 得分损失函 数Lscore、 空间变换正则化损失函数Lstn, 损失函数L的计 算 公式为: 式中: n表示采样点的个数, 是地面实况框角落 位置和第i个输入点之间的偏移量, 包含预测的偏移量; S53.得分函数损失Lscore用来让网络学习点到最近目标框的空间偏移量, 有两个评分函 数, 分别为监督评分损失和非监督评分损失; 监督评分损失训练网络预测一个点是否在目 标框内, 将第 i个输入点的偏移回归损失表示为 二进制分类损失表示为 则监 督评分损失函数Lscore1的计算公式为: 其中: n表 示采样点的个数, mi∈{0, 1}, 用于表示第i个输入点是否在目标边界框中; 无监督评分损失 是为了让网络直接了解哪些点可能给出最佳假设, 训练网络的目的是为了产生良好预测的 点分配高可信度, 公式中包括两个相互竞争的损失项, 其中: 角落预测误差的得分与置信度 ci成比例, 则无监 督评分损失函数Lscore2的计算公式为: 其中: n表示采样点的个数,ω是权重因子, 取值为0.1; S54.选取 得分高的点 为预测结果, 得到物体的3D边界框 。权 利 要 求 书 2/2 页 3 CN 114863228 A 3

PDF文档 专利 一种基于机器视觉的机场特种车辆避障方法

文档预览
中文文档 10 页 50 下载 1000 浏览 0 评论 0 收藏 3.0分
温馨提示:本文档共10页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 一种基于机器视觉的机场特种车辆避障方法 第 1 页 专利 一种基于机器视觉的机场特种车辆避障方法 第 2 页 专利 一种基于机器视觉的机场特种车辆避障方法 第 3 页
下载文档到电脑,方便使用
本文档由 SC 于 2024-03-03 12:06:55上传分享
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。