打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
优先出版 | 基于视觉的无人机自主着陆研究综述
userphoto

2023.07.26 河南

关注

  引用格式  

钟春来,杨洋,曹立佳,等.基于视觉的无人机自主着陆研究综述[J]. 航空兵器,doi:10.12132/ISSN.1673-5048.2023.0045.

Zhong Chunlai, Yang Yang, Cao Lijia, et al.A Review of Vision-Based Autonomous UAV Landing Research [J]. Aero Weaponry,doi:10.12132/ISSN.1673-5048.2023.0045. (in Chinese)

基于视觉的无人机自主着陆研究综述

钟春来1杨  洋1曹立佳1,2,3*王  喆4

1.四川轻化工大学 自动化与信息工程学院

2.人工智能四川省重点实验室

3.企业信息化与物联网测控技术四川省高校重点实验室

4.四川腾盾科技有限公司

摘  要

无人机被广泛应用于抢险救灾,自主着陆是无人机应用中的关键技术之一。由于精度和干扰的影响,传统的导航技术如GPS和INS往往不能满足着陆阶段的导航要求。基于视觉的自主着陆系统具有自主性强、成本低、功耗低、抗干扰能力强等优点,适合应用于无人机自主着陆阶段的导航。本文总结了当前基于视觉的无人机自主着陆领域的研究成果,按相机安装位置和着陆平台类型进行梳理,对其中的关键技术进行了比较和分析,并指出了未来的发展趋势。

关键词

无人机;自主着陆;计算机视觉;标识检测

0  引   言

无人机(Unmanned Aerial Vehicle,UAV)正在改变军事和民用行动的执行方式。无人机技术的发展为数据和图像采集[1]、特定目标的定位和跟踪[2]、地图构建[3]、通信中继[4]、管道勘测[5]、军事行动[6]、边境巡逻、持续广域监视[7]、搜索救援[8]以及交通监测等任务带来了更高的效率。然而无人机的自主着陆是事故发生率最高的阶段,精确稳定的测量出无人机的实时位置和姿态是准确引导着陆的关键点。常规的飞行参数估计方法包括:全球定位系统(Global Positioning System,GPS)、惯性导航系统(Inertial Navigation System,INS)。GPS通过卫星进行定位,精度较高且误差不随时间累积,但GPS只能在开阔地形中获得很高的精度,而在森林、峡谷、城市高楼间通常无法获得正确位置信息,其在军事上是完全不可取的。INS通常由陀螺仪和加速度计组成,通过对角加速度和加速度进行积分得到载体位姿参数,具有自主性,不依赖外界信息,但其误差随时间累积,不能用于长时间导航。为有效避免传统定位方法的缺陷,研究人员对视觉着陆技术进行了更深入的研究,这项技术的发展将成为无人机着陆究领域中新的里程碑。

基于视觉的导航方法由于能够在没有GPS的环境下正常工作且不漂移,受到广泛关注。视觉导航利用摄像头等视觉传感器获得图像,通过图像识别、深度学习等相关技术计算载体导航参数,具有成本低、信息量大、高自主和完全无源性等优点。首先,基于视觉的着陆系统可以提供无人机与着陆场地的相对位姿参数;其次,视觉传感器是主动传感器,一定程度上保证了无人机在对抗环境中的安全;最后,视觉传感器的体积小且重量轻,不会对无人机造成载荷负担。近年来,国内外研究者对无人机导航技术[9-10]、无人机目标检测技术[11]、无人机安全着陆区探测技术[12]、无人机自主着舰[13-14]、机舰协同技术[15]等进行了研究与总结,但对利用视觉传感器的自主着陆系统介绍较少。为进一步促进无人机视觉自主着陆技术的发展,本文对国内外使用视觉传感器进行无人机自主着陆的研究现状进行了集中整理分析。无人机按机翼结构可分为固定翼、旋翼(直升机和多旋翼)、扑翼等,不同的机翼构造导致无人机的起降方式各不相同。旋翼无人机可空中悬停,可垂直起降。与旋翼无人机相比,固定翼无人机无法在空中悬停,需要跑道滑行起降。本文主要总结了固定翼和旋翼无人机的视觉自主着陆方法,虽然二者降落方式略有不同,但二者视觉降落的技术可以相互借鉴。根据相机安装位置将视觉系统分为机载系统和非机载系统,并根据着陆目的地类型将其分为静态、动态目标场地。其中,静态场景包括两类:合作标识物和自然环境特征;动态场景分为两类:车载平台和船舰平台。

1  非机载视觉系统

非机载相机系统通常依靠固定在地面上的单目或多目视觉系统[16]。该系统从3D-2D对应关系中估计无人机的姿态,这意味着必须知道图像上突出特征的3D布局。非机载系统配置支持使用高质量图像系统且更容易获得足够的计算能力,这使得部署更复杂的方法成为可能,且不必担心无人机因视觉系统造成的能源消耗和载荷负担。

非机载相机系统早期的研究是在2006年,Wang等[17]提出一种使用步进电机控制的网络摄像头识别贴有标记的微型飞机上的系统。然而,此地面系统的视场较窄,距离相机1 m时识别区域只有140 cm×140 cm。为了扩大视场范围,研究人员提出使用多个相机的方法。Martinez等[18]引入了一种三目地面系统,如图1所示。该系统由三台固定在铝制平台上的相机组成,用于提取飞机的关键特征,以获得鲁棒性好的3D位置估计。日本研究员[19]在2010年提出一种地面立体视觉系统,该系统用于估计四旋翼飞行器的三维位置,并实现自主悬停和户外自主降落。系统采用连续自适应均值漂移的检测算法,可以检测到6 m高度内的无人机。文献[20]建立了一个地面立体视觉系统,如图2所示。系统由两个独立模块组成,对称布置在无人机着陆点附近的跑道两侧,每个独立模块由云台搭配摄像头组成并独立连接到计算机,两个相机捕获的图像序列同时发送到数据处理计算机,检测算法从捕获的序列图像中提取无人机的图像位置并利用标定数据和云台倾斜角度还原出无人机的空间位置。但此算法中无人机被简化为一个单点,无人机位置由三角测量法解算,丢失了无人机的姿态信息。由于相机具有固定的视场,导致大多数都受到工作距离的限制,为了扩大工作距离,Guan等[21]使用多个不同焦距的相机以覆盖飞机的所有降落轨迹,可以在不增加飞机载荷的情况下实现飞机的精确着陆。此外,Liu等[22]提出一个用于飞机相对姿态测量的机外视觉系统,如图3所示。该系统结合了一个变焦成像单元和一个平移/倾斜伺服单元,能够在大距离范围内测量飞机姿态。Li等[23]开发了一个级联深度学习模型,用于无人机自主着陆的图像检测和精度提升。实际飞行实验结果表明该系统能够在飞机下降和滑行阶段引导飞机在视场内移动,完成自主着陆。

图1  三目地面系统[18]

图2 固定翼无人机地面引导系统结构[20]

图3 机外视觉系统[22]

由于光学相机只能在晴朗天气下进行工作,当天气恶劣和夜晚时以上的非机载相机系统无法正常工作。为了扩展工作时间,达到能够全天候使用,部分系统采用红外相机作为视觉传感器。Fu等[24]设计了一个单眼红外视觉系统,通过安装在地面上的红外相机观察四旋翼飞机上的4个红外发光二极管(Light Emitting Diode,LED)标记来估计无人机姿态。2020年,该团队将其扩展为一个多相机系统[25]并提出一种融合机外多个相机信息的基于扩展卡尔曼滤波(Extended Kalman Filter,EKF)的姿态估计算法。此外,Kong等[26]提出一种基于红外相机的立体视觉系统,该系统由两个红外相机和云台(Pan-Tilt Unit,PTU)组成,其结构如图4所示。为了扩大系统的工作范围,该团队于2017年将红外相机和其他传感器安装在两个独立PTU上并将两个TPU分别放在跑道两侧,构成一个地面立体视觉系统[27]。该系统根据图像信息和来自PTU的旋转角度计算目标。每个视觉单元独立工作,并将图像处理和PTU状态的结果传送到导航计算机,导航计算机计算无人机的相对位置。

图4 带PTU的红外立体系统[26]

非机载相机系统除了应用在地面,还被广泛应用于海事无人机舰船着陆。海事无人机主要通过监测和侦查的方式来维护国家海洋安全以及防治海洋污染,为海洋防灾减灾提供优质的服务,进而为区域海洋经济发展保驾护航。相对于海巡船和有人驾驶飞机,无人机具有体积小、重量轻、携带方便等优点,尤其是对起飞环境要求较低,需要的起飞跑道较短甚至不需要跑道,可以在岸基或海巡船上进行起降。2015年,Santos等[28]设计了一种安装在船舶甲板上用于无人机降落的视觉系统,该系统使用粒子滤波器(Particle Filter,PF)和无迹卡尔曼滤波器(Unscented Kalman Filter,UKF)的组合框架进行无人机位姿估计,实验结果表明位置和角度估计的精度符合自主着陆系统的要求。两年后,该团队对该系统进行改进[29],将粒子滤波框架应用于基于三维模型的姿态估计问题,试图从现有的重采样方案中检索尽可能多的信息。2018年,该团队对系统进行再次升级[30],使用捕获的图像作为输入,用粒子滤波结构估计无人机轨迹并分别采用UKF滤波器和UBiF(Unscented Bingham Filter)滤波器对无人机平移运动和旋转运动进行滤波。为保证实验安全性,创建了一个合成视频着陆序列生成地面真实数据,定量分析实验结果,得到的跟踪误差符合自主着陆的要求。

2019年,Santos等[31]又开发了一种基于3D模型的无人机着陆地面跟踪框架,并在无人机跟踪中使用了方向统计分布。由于移动平台处于海上,且受区域气象条件(如风浪)的影响,视觉系统面临诸多挑战。为了克服这个问题,该团队使用了基于网络的保持系统,以确保UAV的安全着陆。基于三维模型的算法是很好的无人机姿态估计方法,但需要较大的处理能力。这种处理能力在地面系统中很容易获得,因为它与无人机相比不存在任何载荷限制。2023年,该团队在已有系统基础上加入了基于树的相似性度量方法[32],提高了算法速度。2022年,Liu等[22]提出一种基于模型的姿态跟踪算法,需要飞机的计算机辅助设计(Computer Aided Design,CAD)模型来测量飞机相对于参考平台的相对姿态并采用二维视觉跟踪算法和目标检测算法对视觉系统进行控制。所提出的姿态跟踪算法在公开数据集上取得了具有竞争力的结果。通过实际飞行试验对整个系统进行验证,   结果表明,该系统可实时运行  1920×1 080@40 Hz视频,精度优于0.5°。

现有的非机载视觉系统大多应用于固定翼无人机,因为固定翼无人机降落时速度快,滑行距离远,一般的非机载视觉系统将摄像机固定在固定跑道末端,能够监控飞机滑行降落的整个过程,也可部署多个系统提高检测距离和范围。

2  机载视觉系统

机载视觉系统通常由单个或多个校准的前视摄像头组成。在飞机着陆过程中,相机拍摄图像并利用计算机视觉算法来提取图像上的突出特征,如跑道边缘、灯光或辅助标识物等,然后利用提取的图像特征解算飞机的姿态问题,或与INS数据相结合,共同完成飞机姿态的计算和控制。根据机载相机系统的着陆平台是否为运动的可分为静态目标场地和动态目标场地,分类如图5所示。

图5 无人机自主着陆分类

2.1  静态目标场地

在无人机自主着陆研究领域,在静态目标场地着陆如标准跑道、停机坪等是研究无人机自主着陆的基础。无人机在静态场景下的自主着陆可分为基于合作标识的自主着陆和基于自然环境特征的自主着陆。基于自然环境特征的着陆指无人机可以在没合作标识物的情况下识别环境特征进行着陆。

2.1.1  基于合作标识物的着陆

基于合作标识物的无人机自主着陆技术的关键是准确检测、识别合作标识并精确提取其特征,利用提取的特征来计算飞机当前的飞行姿态。合作标识是根据几何图案或某些几何规律的原理设计的一种识别标记。设计准确高效的标识和相应的检测算法是提高无人机自主着陆能力的重要途径。目前主流的识别标识有“H”和“T”,以及圆形、矩形、组合标识等,如图6所示。组合标识通常是指由标准几何图形排列组合而成的图形,如承载信息的二维码、条形码等,密歇根大学基于二维码组合图形合作靶标开发了开源无人机自主着陆视觉系统April Tag[33-34]

图6 部分降落标识[35-38]

基于合作标识物的自主着陆算法已经比较成熟,研究人员对部分成果进行了总结[38],但不够完善,现将近十年国内外各研究机构已有的标识类型、检测方法及实验结果进行总结,如表1所示。

表1  国内外基于合作标识物的着陆研究总结

除了以上这些需要在平面上放置辅助标识物的着陆方法外,还有一些研究团队利用辅助灯光引导飞机着陆。Chatterji等[68]和Oszust等[69]从捕获的图像中的路径指示灯和进场灯来解算飞机的姿势。此外,Gui等[70]的一项新研究开发了一种基于固定在跑道两侧的红外指示灯计算飞机姿态的方法。他们在跑道附近安装4个红外灯,通过机载单目相机图像提取灯的准确位置,可以用来计算飞机的姿态,进行着陆辅助。

基于合作标识物的视觉着陆大多应用在多旋翼无人机和无人直升机,因为二者可以空中悬停和垂直起降,通过摄像头对标识物进行识别,计算获得无人机与标识的相对位置,将相对位置传入飞行控制系统后,控制系统将控制旋翼无人机进行自主降落,精度可达厘米级。固定翼无人机基于标识物的降落研究较少,因其降落时需要场地滑行且降落时速度快、距离远,放置合作标识物的方法不适合固定翼无人机。

2.1.2  基于自然环境特征的着陆

基于自然环境特征的无人机自主着陆明显不同于基于合作标识物的自主着陆。基于合作标识物的方法可以根据与背景高度区分的标识进行精确定位和导航,算法设计可以定制以匹配传统特征,但标记必须事先设置好。在一些对无人机自主性要求较高的场景中,比如救援任务,无人机往往会先于人类到达现场,进行初步的任务处理。在这种情况下,预先放置合作标识的方法不能满足任务要求,因此开发了基于自然环境特征的自主着陆方法,典型的自然场景有机场跑道、地平线等。

为了在机场跑道上安全着陆,固定翼飞机应该以恒定的角度平稳下降,指向跑道中心线,并在跑道的起点着陆。德国航空航天中心的Doehler等[71]提出一种简单方法,仅根据跑道在机载相机的成像来估计飞机相对于跑道的位置。但是这种方法的前提是准确检测地平线,并不适用于所有机场。Gibert等[72]提出一种从地平线、跑道拐角和跑道边缘提取特征的位置偏差估计方法。Li等[73]提出一种仅利用跑道自身特征的视觉位姿估计方法,即利用跑道的起始线和跑道的两条边线,当三条线完全可见时可以解算出无人机的六维姿态,在着陆后期,跑道起始线是不可见的,可以通过两条边缘线来估计偏航、俯仰、纵向位置和高度。此外,Hiba等[74]利用跑道边缘的3D-2D对应关系来解决飞机的姿态估计问题。Bras等[75]使用从前视图像中提取的跑道边缘和前角点来实现无人机自主着陆的视觉伺服控制方法。

除了利用跑道的形状特征,Fan等[76]采用谱残差显著图检测感兴趣区域,然后选择稀疏编码和空间金字塔匹配来识别跑道,并使用正交迭代来估计位置和姿态。法国航空航天实验室[77]研究了视野约束下基于视觉的飞行控制问题,并提出一个基于视觉的固定翼无人机在未知跑道上的着陆框架。此外,Ruchanurucks等[78]使用一种有效的透视n点算法估计无人机的相对位姿,引导固定翼无人机在跑道上着陆。然而,这种方法的准确性易受到跑道探测误差的影响。与特征提取方法相比,Goncalves等[79]提出一项基于视觉的无人机自主进场和着陆研究,采用了一种有效的基于ESM(Efficient Second-Order Minimization)的跟踪方法。这种直接方法可以达到理想的精度,但计算量大。

2.2  动态目标场地

现实中无人机执行复杂任务时,目标一般是运动的。与静态场景相比,动态场景更加复杂,这对无人机的导航系统和控制系统提出更高的要求。同时,两种着陆方式的任务目标几乎相同,这意味着上述静态场景中的自主着陆方法也广泛应用于动态场景中。由于运动平台的复杂性,目前的目标检测和识别算法无法可靠地识别和跟踪着陆平台。因此,现有的大多数研究增加了合作标识物,并通过识别具有显著特征的合作标识物来实现自主导航。根据任务场景的不同分为车载平台和船载平台进行研究。

2.2.1  车载平台

2013年,Cheng等[39]利用车载平台上的LED发光圆形标记引导无人机着陆,在15次自主着陆实验中,着陆平台以1.2 m/s的速度移动时,成功率为88.24%,着陆位置在x轴和y轴的误差分别为5.79 cm和3.44 cm。但该系统无线传输有一定延迟,不利于高度自主着陆。2017年,Baca等[63]在国际机器人竞赛中提出一种快速、鲁棒的视觉定位方法,用于无人机在车辆上自主着陆。Keller等[80]设计了一个无人机在动态目标上的精确自主着陆的框架,该框架保证了旋翼无人机能在风向变化、动态障碍物和着陆平台移动等情况下稳定着陆。为了防止车辆突然变速时在无人机视野中丢失,孙凯等[50]提出一种利用图像帧间位移差分算法估计车辆速度,增加目标跟踪着陆算法的鲁棒性。单纯依靠视觉引导自主着陆受到算法和计算能力的限制,一些研究侧重于视觉主导的多传感器融合技术。2016年,Chen等[62]设计了一种基于视觉和激光雷达的定位和跟踪算法。该系统采用单目视觉系统进行检测和位姿计算并利用激光雷达测量无人机的相对高度,实验证明无人机成功以1 m/s的移动速度降落在平台上。该系统的缺点是当移动平台突然加速或减速时,无人机无法跟踪上移动平台,因此只能应用于移动平台速度较慢的情况。2017年,Araar等[64]提出一种融合惯性的视觉着陆系统,通过仿真和实际场景验证,该无人机能够在50 km/h的移动平台上着陆,误差为8 cm。以上系统都是利用相机跟踪移动标识来提供无人机与车辆的相对位置,但未考虑飞行过程中相机晃动对采集图像的影响。2022年,Zhao等[81]在无人机和单目相机之间加上一个双轴云台,在扩大单目视觉系统感知范围的同时利用惯性测量单元(Inertial Motion Unit, IMU)测量相机姿态以校正采集到图像信息,通过实际飞行验证无人机能在速度为3.5 m/s的车辆上实现自主着陆。运动场景中的视野变化、运动模糊和光照变化等问题,可以通过提高检测算法鲁棒性和硬件模块性能来解决。2018年,Yang等[46]提出一种基于混合相机阵列的相对位置估计方法,并利用改进的YOLOv3算法实现对目标的实时检测和跟踪,系统框架如图7所示。其中,KD分别为相机内参和畸变系数;R为相机外参。系统由混合相机阵列成像模块和着陆算法模块两部分组成,阵列中的鱼眼相机扩大了视野范围。对于着陆阶段的运动模糊问题,研究人员提出一种两阶段的检测框架[82]。第一阶段利用SlimDeblurGAN算法去除快速运动引起的图像模糊,第二阶段利用YOLOv2算法对标识进行检测。实验结果表明,该系统可以很好地解决运动模糊问题,但仅进行了仿真推理,未进行实际飞行验证。2019年,Alejandro Rodriguez-Ramos等[83]基于深度学习算法设计了一种视觉着陆系统。该算法是针对连续状态空间和动作空间设计的基于策略的深度强化学习算法,实验结果表明最大着陆时间为17.67 s,最大轴向误差约为6 cm。

图7   基于混合相机阵列的着陆系统框架[46]

针对现实环境中光照强度对视觉系统的影响,张君轶等[84]提出一种嵌入式视觉系统。该系统主要是利用深度可分离卷积对YOLOv2进行改造并将模型部署在MaixBit开发板上。模型检测精度为96.7%,检测速度为25帧/秒,此系统解决了传统算法难以处理的光照问题。2022年,齐乐等[85]针对合作标识存在的光照不均、模糊和反光等问题提出基于改进Unet的检测方案,检测速度高达83.33帧/秒。为了解决UAV在户外低亮度环境下的自主着陆问题,Lin等[86]提出一种基于模型的增强方案来提高机载相机捕获图像的质量和亮度。

2.2.2  船舰平台

车辆平台的运动可以以某种方式抽象成二维运动。然而,在环境更加复杂多变的海上,船舶受环境影响具有三维运动的特点。因此,要求无人机实时解算出舰船和无人机自身的六自由度相对位置信息,这就要求视觉系统具有极高的运算速度和精度。此外,海面上出现的水雾和其他恶劣天气对视觉传感器的成像质量也有很大影响,这大大增加了舰载平台无人机自主降落的难度。

由于海洋环境复杂,视觉系统易受到环境干扰无法全天候完成任务。为了克服水雾对视觉系统的影响,Xu等[87]提出一种在“T”的标识上安装加热模块并利用红外相机实现夜间自主着陆,实验结果表明无人机的识别速度可达17.2 ms,准确率达97.2%。夏正浩等[88]针对浓雾天气下红外目标分割问题,提出一种能够同时克服Otsu算法和最大熵算法误分割问题的组合分割方法。红外标识在一定程度上可以克服水雾影响,但其检测结果易受温度影响,在实际应用场景下有一定的局限性。

相比于国外,国内研究开始的晚一些,但经过不断探索,也取得许多重要成果。2019年,国内高校在自主无人艇HUSTER68上实现了无人机在航行过程中的自主起降。合作标识物采用了多圈嵌套方式,可以保证无人机在各种高度都能准确高效地识别目标。2020年,Li等[40]针对无人直升机视场小、图像尺度变化大的问题,提出一种新的特征提取结构[40]。该算法利用了SSD(Single Shot MultiBox Detector)算法和KCF(Kernelized Correlation Filters)算法的相互修正,并兼顾了深度学习算法的优点。该方法结合了高精度和强实时滤波算法的优点,检测成功率为91.1%,平均处理速度为9 ms,满足无人机自主着陆的任务需求。针对海浪导致的着陆平台发生倾斜的问题,刘丰等[89]提出一种基于视觉与着陆平台姿态主动反馈相结合的自主降落方案。在实际飞行中,当倾角小于6°时,成功降落率为90%。Meng等[90]提出一种视觉/惯性组合的无人机舰载着陆方法。首先利用机载相机检测甲板跑道上的4个合作红外标识,机载IMU估计无人机姿态;然后利用扩展卡尔曼滤波算法融合视觉和惯性信息用以估计无人机相对于跑道的位置、姿态和速度以及船舰运动信息。仿真实验结果表明无人机与船舰距离小于400 m时,无人机的运动估计精度在横向和垂直距离达到0.2 m,纵向距离为0.5 m。

目前,在动态目标场地下的自主着陆领域,研究人员主要致力于克服运动平台的三维运动特性和环境引起的协同目标识别。他们在检测准确性和实时性能方面取得显著进步。然而,大多数研究都是针对合作标识物而非平台结构,当前的视觉算法很难在不依赖合作标识物的情况下高效求解相对位姿。若能把算法扩展到整个平台的检测,将有效提高检测距离,增强视觉算法的适应性和鲁棒性。

3  存在问题及未来发展思考

基于视觉的无人机自主着陆系统以实时目标和环境信息为基础数据,经机载计算机处理后,为决策和控制系统提供位置和姿态,从而引导无人机在复杂环境中自主着陆。基于视觉的自主着陆技术存在的问题及对未来发展的思考如下:

(1)系统的准确性

准确地检测和跟踪着陆目标是无人机精准着陆的重要前提,影响视觉检测和跟踪准确性的关键因素之一是视觉数据本身的质量。质量差的视觉数据,例如模糊或扭曲的图像,会使算法难以准确检测和跟踪着陆目标。现有的图像特征提取方法如阈值分割、提取轮廓和特征点等的准确性受图像质量影响大,而且处理图像识别过程中光照快速变化的方法很少。这在光照条件变化大的室外环境中,或者在着陆点附近可能存在高密度障碍物的复杂环境中尤其具有挑战性。另一个挑战是算法处理着陆目标外形变化的能力。未来,无人机自主着陆将会应用到救援、战场环境感知、排爆等复杂任务中,目标着陆平台外观可能已经受到损坏。为此,可以设计出与实际环境对比度高的标识或考虑用荧光或红外等辅助光源来增强识别系统的准确性。

(2)系统稳定性

无人机不能像地面机器人一样在状态估计有很大不确定性时就停止运行,系统的稳定性是自主着陆的重要因素之一。当目标平台突然出现偏移或系统受到强风干扰时会对系统稳定性造成巨大挑战。未来可以使用人工智能算法帮助视觉着陆系统学习和适应不同环境和着陆场景。此外,系统的控制器必须能够对无人机的轨迹进行实时调整,以补偿环境因素等外部干扰造成的无人机位姿变化。最后,在仿真环境和真实环境中对视觉系统的稳定性进行全面测试和验证。因为仿真环境无法完全复制真实世界条件的复杂性和不可预测性,视觉着陆系统初期可以在仿真环境下进行评估和开发,后期需要在真实条件下进行全面测试和实际验证以保证系统在各种场景下稳定运行。

(3)系统的实时性

若无人机不能及时更新速度和姿态,可能导致无人机偏离着陆目标甚至坠毁,因此需要保证系统的实时性。实时性主要受检测和跟踪算法的运算速度和机载计算机算力限制。通常,无人机的机载计算资源有限,需要大量的时间来处理获得的数据,降低了无人机对外部环境的反应能力,这可能会导致漏检、误报或者无人机位置和方向的错误估计。传统的算法如轮廓检测、KCF等计算量大、运算速度慢。虽然基于深度学习的相关算法精度有所提升但模型参数量大,不能直接用于机载平台。为了提高系统的实时性,一方面可以减少标识物定位所需要的边缘轮廓;另一方面可以利用深度可分离卷积和参数量小的骨干网路对现有网络模型进行改造,以提高算法速度。

(4)多传感器融合

基于视觉的着陆系统可以在着陆过程中为无人机提供精确的引导,但受到一些限制和挑战,例如环境因素(弱光、雨、雾和遮挡)和视觉感知的不确定性(图像噪声、相机校准和物体识别)。通过集成多个传感器,例如相机、激光雷达、GPS、IMU和高度计,可以克服这些限制并提高着陆系统的准确性和鲁棒性。例如,激光雷达传感器可以提供准确可靠的距离测量,即使在弱光和有雾的条件下也是如此;而GPS可以提供精确的位置信息,可用于纠正视觉估计中的漂移或错误;IMU可以提供无人机姿态和加速度的高频测量,可用于无人机在着陆过程中的运动和方向估计;传感器融合算法可利用来自多个传感器的信息,准确可靠地估计无人机的位姿,提高无人机自主着陆系统的鲁棒性。

4  结  束  语

近年来,无人机系统不断向数字化、智能化、自动化、网络化、集群化等方向发展。无人机的视觉自主降落系统在民用领域和军用领域都具有很大发展潜力,因此,深入研究无人机基于视觉自主降落技术是十分必要的。针对无人机的视觉自主降落问题,本文根据相机放置位置和着陆平台类型整理和归纳了当前固定翼无人机和旋翼无人机视觉自主着陆的若干研究进展。从现有成果看,国内落后于国外;从公开发表的研究成果来看,对于非机载视觉降落系统而言,大部分是由多个相机和高性能计算设备组成,运算能力更强,研究重点主要集中于固定翼无人机;对于机载视觉系统而言,研究较多的是旋翼无人机,且针对静平台的自主降落研究比较多,目前研究重点逐步由静平台扩展到动平台。部分学者提出的动平台方案更多的是关注于标识本身,较少涉及动平台自身的检测。此外,由于实际应用场景的复杂性,以及无人机自身载荷与计算资源的限制,使得大部分研究成果停留在实验室仿真阶段,缺乏有效的实验验证和实际场景应用。

如果能针对无人机在视觉自主着陆的理论基础和工程应用中的难点,抓住现有研究中的主要矛盾,紧跟人工智能技术发展热潮,在系统抗干扰能力、稳定性与实时性等方面取得突破性进展,将极大促进无人机视觉自主降落技术的发展。未来,软件算法的不断突破和硬件设备的快速革新,必将推动无人机视觉着陆技术的快速发展,迈向一个新台阶。

热烈欢迎阅读引用

扫码获取全文

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
一文看懂机器视觉芯片
【产品与技术】嵌入式视觉系统:NX图像处理平台
特别小的目标检测识别(附论文下载)
光谱成像技术在海域目标探测中的应用
视觉算法让无人机识别3D环境并自主飞行
DARPA“快速轻量自主”项目推进无人系统自主能力发展
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服