本发明属于基于图像处理的无人机无人船协同的相对视觉定位(rvl)领域,具体涉及一种鲁棒的无人机-无人船协同相对视觉定位方法和系统。
背景技术:
1、协作无人水面飞行器已经被广泛运用于民用与军事场景中,无人机位姿是确定无人机在整个无人系统中所在位置的重要参数,精确的定位是确保无人机与无人船之间保持相对位置稳定的重要前提,可以避免无人机在与无人船的协同降落过程中因为相对位置不准确而导致的无人机落水等事故,保证无人机飞行安全。
2、但是在协同降落任务中,安全着陆区域面积小且总是处于六自由度运动中,且水面环境中稀疏的特征点同样对视觉定位来说是不可避免的问题,因此相对视觉定位方法成为了解决水面无人协同系统定位问题的关键。
3、近年来,由于视觉传感器的广泛可用性和图像学习的快速发展,机器视觉已经成为rvl问题中常见的方法。具体来说,机器视觉系统使用摄像头和其它视觉传感器来捕获周围环境的实时图像和数据。然后,使用ai算法处理视觉信息,以确定无人机相对于其它物体或高精度地标的相对位置和方向,因此,使用适当的算法对视觉信息进行处理成为提高无人机视觉定位精度的关键因素。
技术实现思路
1、本发明针对现有无人机位姿估计缺乏鲁棒性以及过于依赖特征点的问题,提供一种鲁棒的无人机-无人船协同相对视觉定位方法、系统、介质和装置,旨在根据无人机视觉传感器采集的图像数据对无人机的位姿进行在线估计,为无人机-无人船协同系统提供准确的位姿估计结果,提高无人系统协作的安全性。
2、为实现上述目的,一方面,本发明提供了一种鲁棒的无人机-无人船协同相对视觉定位方法,该方法包括以下步骤:
3、步骤1:通过无人机机载视觉传感器采集当前合作标识图像,对采集到的图像进行基于图像熵的自适应角点检测,得到图像中的角点。
4、步骤2:使用基于几何特征学习的角点匹配方法,将步骤1中得到的图像中的角点与图像模板库中的模板角点进行匹配,得到相匹配的角点对信息,并以此得到无人机位姿的测量值。
5、步骤3:基于步骤2中得到的无人机位姿测量值,使用kf-gru模型得到无人机位姿的估计值。
6、另一方面,本发明提供了一种鲁棒的无人机-无人船协同相对视觉定位系统,包括:
7、角点计算模块,用于通过无人机机载视觉传感器采集当前合作标识图像,对采集到的图像进行基于图像熵的自适应角点检测,得到图像中的角点;
8、角点对信息获取模块,使用基于几何特征学习的角点匹配方法,将图像中的角点与图像模板库中的模板角点进行匹配,得到相匹配的角点对信息,并以此得到无人机位姿的测量值;
9、位姿估计模块,用于基于无人机位姿测量值,使用kf-gru模型得到无人机位姿的估计值。
10、再一方面,本发明提供了一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行如上任意一项所述的无人机-无人船协同相对视觉定位方法。
11、又一方面,本发明提供了一种无人机-无人船协同相对视觉定位装置,包括存储器、处理器以及存储在所述存储器中并能在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上任一所述方法的内容。
12、相较于现有技术,本发明具有以下有益效果:
13、1.采用基于图像熵的角点检测算法,将图像熵的非线性映射结果作为shi-tomasi角点检测的阈值,达到自适应调节角点检测阈值的效果。
14、2.使用基于几何特征学习的角点匹配方法,支持非对称容忍的角点匹配过程。
15、3.提出了kf-gru模型,用于在没有卡尔曼滤波器模型的情况下更新状态和协方差。
1.一种鲁棒的无人机-无人船协同相对视觉定位方法,其特征在于该方法包括以下步骤:
2.根据权利要求1所述的一种鲁棒的无人机-无人船协同相对视觉定位方法,其特征在于:步骤1具体为:
3.根据权利要求1所述的一种鲁棒的无人机-无人船协同相对视觉定位方法,其特征在于:所述角点阈值θ采用以下计算公式:
4.根据权利要求2或3所述的一种鲁棒的无人机-无人船协同相对视觉定位方法,其特征在于:步骤2具体为:
5.根据权利要求4所述的一种鲁棒的无人机-无人船协同相对视觉定位方法,其特征在于:所述成本矩阵的维度具体为:
6.根据权利要求1所述的一种鲁棒的无人机-无人船协同相对视觉定位方法,其特征在于:步骤3具体为:
7.根据权利要求1或6所述的一种鲁棒的无人机-无人船协同相对视觉定位方法,其特征在于:所述的kf-gru模型表达为:
8.一种鲁棒的无人机-无人船协同相对视觉定位系统,其特征在于包括:
9.一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行如权利要求1-7任意一项所述的无人机-无人船协同相对视觉定位方法。
10.一种无人机-无人船协同相对视觉定位装置,包括存储器、处理器以及存储在所述存储器中并能在所述处理器上运行的计算机程序,其特征在于:所述处理器执行所述计算机程序时实现如权利要求1-7任一所述方法。