发布询价单
您的位置:首页 > 资讯 > 综合资讯 > 正文

无人机系统如何实现自主性

2019-05-12 11:20 性质:转载 来源:人工智能学家
免责声明:无人机网(www.youuav.com)尊重合法版权,反对侵权盗版。(凡是我网所转载之文章,文中所有文字内容和图片视频之知识产权均系原作者和机构所有。文章内容观点,与本网无关。如有需要删除,敬请来电商榷!)

  机器人与人可以通过远程遥现(romote presence.)和任务代理(taskable agency)这两种方式进行协作。在国防部的大多数应用领域当中,系统都是以拓展作战人员的可达领域,使作战人员能够进入拒止区为目的的。因此,基于联合认知系统内协作类型的特征描述,比基于人与机器人之间的接近性的一般性分类系统能更有效地表述人一机交互概念。

  远程遥现是指人通过无人系统来进行远距离实时感知和行动。在遥现编队当中,之所以仍然将人留在控制回路中,一方面是因为受计算机视觉限制,另方面也是为了能够监控未建模或意外情况。然而,留在控制回路中的人并不一定需要为了能在远端环境中工作而充当机器人操作员的角色。编队的工作表现取决于无人系统,因为正是由无人系统来补偿因与机器人协作而造成的感知构建损失(例如,机器人通过环境效应使信息量减少)和最大程度地减少直接控制机器人的工作负荷。

  任务代理是指将任务责任全部委派给无人系统。在机动智能体编队中,人在交接完一项任务之后,必须负责处理其他任务,直到无人系统再次返回。较之遥现编队,在任务代理编队中,人与机器人之间的联系较少,但是仍然必须保持人与机器人之间的交互,以确保任务委派正确无误,任务意图被充分理解,并且能在无人系统返回之后在认知层次上对发现成果进行汇总。信任度是影响机动智能体是否能够顺利得以推行的一个主要因素。

  究竟选择远程遥现还是任务代理,主要取决于任务的实际情况。这两种的作方式之间有着明显的区别。不同的任务也需要采用不同的策略。例如:在行秘密监视任务时,无人系统可能要在独立工作数天或数星期之后,才能将有价值的数据带回;而在执行特种部队任务时,则可能需要无人系统不间断地执行态势警戒。

  在无人系统研究过程当中,有许多人认为远程遥现就是遥操作(Teleoperation),而之所以将人仍然保留在控制回路中,是由于自主能力的不足。事实上特别工作组也发现无人系统经常被认为是“完全自主”或“完全遥操作”的系就这种观点忽视了部分自主能力的价值,如,警戒运动、航路点导航以及感知提示等。利用这些自主能力,只要操作无误,就可以减少操作员的工作负荷,使员能够将全部精力专注在任务执行上。

  5. 自然语言理解

  与自然语言处理(NLP)密切相关的是能用英语等普通语言与人类进行交流的计算系统的发展( Jurafsky&Mamm,200)。自动语音识别(ASR)是将语音信号转化为文本信息的过程,而自然语言理解(NLU)则是将文本信息转化为计算机能理解的正式表述的过程。人一机交互受自然语言影响。如果给无人系统发出的口头指令不精确,那么委派的内容将会简单化,委派的速度也会随之加快然而,自然语言是一门独立的研究学科。本报告也同样持有这一观点。

  人向自主系统发指令时,自然语言是最常态最自然的一种方式。人类一般利用自然语言来为自主系统制定多样化的高级目标和策略,而不是直接进行具体的遥操作。但是,由于自然语言本身具有一定的不明确性,因此在自然语言的理解上存在一定的困难。在理解自然语言时,必须结合当时的语境来推断语言的真实意义。构建一个能理解英语指令和人类语言的自主系统将是一项高技术难度的挑战。为解决这个问题,我们经常利用传统图形用户界面(GUI)来与计算系统沟通。然而,在大多数情况下(例如,当用户不方便用手进行操作时),语言仍然是最理想的沟通方式。

  6. 多智能体协调

  在执行跨机器人/软件智能体/自然人任务时,我们常常会提到多智能体协调这一术语。每个智能体都具有一定的自主性。多个智能体之间可以通过两种方式进行协调,即分布式协调和集中式协调。分布式协调是指多个智能体直接进行互动或交涉;集中式协调是指在规划器的指导下统一进行协调。无论智能体采用哪种方式进行协调,我们都必须确保智能体不仅能够同步化,还能适应环境或任务的动态变化。多智能体同步化经常被理解为多智能体系统之间的主动协同(如机器人足球赛)或非主动协同(如蚂蚁的觅食行为)。虽然协作(人一机协作)与协同之间有一定的关联,但它指的是截然不同的主题,它假定每个智能体都对其他智能体的能力有一定的认知理解能对目标完成进度进行监控,并且能像人类一样进行编队。因此,在研究过程中,多智能体协调与人一机交互是两个相互关联的技术领域,但是一般而言,多智能体协调研究主要侧重于不同配置的智能体协同机制,而人一机交互则侧重于协作认知。本节内容将主要介绍多智能体协调的一个分支领域—一多机器人系统协同。

  多无人平台协调至少有四大好处:扩大覆盖面、降低成本、提供冗余能力、实现规范化。与单个平台独立工作相比,多无人平台协调的共同覆盖面更广,持久力更强,不仅可以发挥网络通信中继的作用,还可以为传感器网络覆盖面提供保障。多个低成本无人平台都可以替代单个高成本低可观测平台,也可以替代应对“反介入”和“区域拒止”而必需的高保护级别的系统。在出现噪声、混乱、干扰、伪装/隐蔽欺骗现象时,多个低成本平台并行可以提供冗余能力,即使其中有几个平台正在执行其他任务或出现故障时,最后依然能够顺利地完成任务。通过协调多个专用平台或异构平台,可以减少成本,降低设计要求。例如:在异构平台编队中,专用无人平台可以为其他无人平台加燃料,从而可以达到简化设计、降低平台成本的目的。

  五、应用挑战  

  1. 系统能力

  自动化有助于在满足一致性、可靠性和可预测性的前提下按照编程执行行动,其挑战在于,这些行动通常只适于具备限制条件的态势(即设计人员预见并且软件开发人员并为之编程的态势),以及局限于为感知理解所处环境而使用的有限传感器列阵所提供的测量值。开发既能精确感知,又能准确理解(识别并分类)所检测目标( Object),并确立相互之间的关系以及更主要的系统目标(Goal),是自动化的重大挑战,尤其是在遇到预期外(不在设计范围内)的目标、事件或态势时(Object, Event, or Situation)。智能决策需要这种能力。然而,目前大多数自动化技术都存在脆弱性( Brittleness),换言之,在设计和编程范围内的态势下能够正常使用,但需要人的干预来处理设计和范围以外的态势。

  另外,人虽然存在个体差异,但通常具备掌握大局(整体任务目标)、评估态态势(行动上下文)、飞行中思考的能力,以适应新的态势,并不是按照基于规则方式(大多数软件编程如此),更多地依赖于模式识别、心智模型、类比推理(有时在非常抽象的层面上)。然而,人并不擅长快速连贯地处理大量数据,也难以长时间保持注意力。

  随着自主能力的不断提升(包括应对更多样的态势和不确定性的能力),我们预测未来系统对人的干预需求将会下降。然而,在可以预见的未来,仍然需要保持一定程度的人一系统交互,其原因包括:

  (1)硬件越来越复杂,因而更容易出现故障。

  (2)软件越来越复杂,因而更容易出现漏洞,脆弱性也随之上升。

  (3)这些系统将在对抗环境中使用,因而可能会遇到初始设计人员未曾考的态势

  简言之,随着软硬件通过扩展来适应更多态势或作战模式,并且在越来越复的环境中使用系统,系统的复杂性将明显上升。这会导致以下结果:

  (1)由于复杂性升高,导致系统的可理解性下降(即为何这样做?

  (2)给定态势下执行方式的可预测性下降,向必须与系统交互的人提出了严峻挑战

  (3)为解决前述两个问题而进行人为干预所需的通信链的脆弱性上升。

  因此美国空军在可预见的未来,大多数甚至全部作战行动将采取人和自主合的方式,从而在面对特定敌手时的各种作战条件下完成任务。自主性将用以降低手动数据处理和集成需求,提高速度,并在软硬件能力范围内执行有关行动。我们仍然需要机组人员来进行与自主性高层目标指示有关的指挥与控制。因为机组人员掌握了设计界限和/或情境(上下文)感知范围以外的知识,可以新的态势,并与其他部队和活动进行协调。

  2. 态势感知与人在回路外的执行问题

  与自主系统协作时的态势感知是确保系统按照作战目标运行的关键。人监督自动化所面临的关键挑战是人在回路外(Out-of-the-Loop),换言之,检测自动化所出现的问题,或者是自动化控制的系统所出现的问题,人的速度较慢,因此无法快速地完成问题诊断和适当干预。究其原因,是在使用自动化时由以下原因导致态势感知明显下降:

  (1)接口不提供必要信息,且通常缺乏系统状态反馈

  (2)要求人经常监视的系统(而这也是人并不擅长的一种技能,因为人在监视时每次至多30分钟,警觉性便会下降)。

  (3)从主动信息处理切换至被动信息处理许多航空事故之所以发生,都是因为飞行员不在回路中,因而无法及时地进行适当干预。

  此外,飞行员在理解自动化工作内容的问题上(甚至是在正常操作过程中主动尝试理解时)也面临着巨大的挑战。如果对所显示的信息存在误解。有时是因为误读系统模式,或者未能准确地预测系统在给定态势下的反应,将会导致态势感知不精确,进而决策失当。即使是训练有素的飞行员也可能无法充分地理解自动飞行导航与制导控制系统的所有模式,因而会在一定程度上影响与自动化的有效交互。未来系统需要更加注重开发能使所有机组成员保持期望的态势感知水平的自主性方法。

  3. 最优工作负荷等级

  虽然使用自动化的目标通常是减少手动工作量(进而降低操作的人力需求),但它通常未必能够实现这一目标。这种情况被戏称为“自动化的尴尬( Irony of Automation)。在高工作负荷飞行阶段(例如,飞机起降),它通常会导致工作负荷进一步增大;而在低工作负荷飞行阶段(例如,途中),却能减少工作负荷。由于理解并与自动化进行交互会使需求增大,工作负荷通常从可观测的手动任务切换为不一定可观测的认知任务。未来需要进一步开发易于使用、理解和交互的自主系统。此外,必须特别注重选择哪些任务由自动化处理,或者委派给自主系统执行,确保机组人员收到的是与人的能力相适应的一组连贯任务,而不是轻易无法实现自动化的离散任务。这种“以人为中心”( Human Centered)的方法对于实现“人一自主编队”性能最优化至关重要。

  4. 人—自主决策集成

  自主性通常用以支持人的决策。专家系统或决策支持系统提供决策指导。例如,行动过程制定或评估、目标提示或者对探测到的目标进行分类等。实际上,有效的决策支持存在困难。虽然我们一般假定这种系统能够改善人的决策尤其是在执行困难任务时,但事实并非如此。证据显示,人一般先采纳系统评估所增加,因而决策时间也会相应延长。因此,辅助决策系统如果存在缺陷,可能并不一定能够提升整体人/系统决策的精确度和实时性。尽管好的建议有用,但如果建议失当,则会使决策人犯错,因而整体任务性能将会严重下降。

  相反,评判人的决策(例如,指出已规划的行动过程可能存在的问题)的决策支持系统,由于输入是在人做出决策之后(而非之前)发生的,因此能够剔除由人到计算机解决问题的方案偏差。它同样还利用了计算机的一大优势,即快拟人提出的解决方案(例如,行动过程)从面从环境态势的多样性以及对抗行动中,识别出潜在的缺陷或缺点。这将更好地促进人/自动化协同,进而提升整体性能。随着决策智能体和系统未来使用越来越广泛,我们必须特别注重开发认知交互方案来改进(而非干扰)机组人员的决策。此外,我们必须基于人/系统性能的综合输出,认真检验这种系统的作战效能。

  5. 自主性中的知情态势信任

  为了使机组人员能够有效地与自主系统协同,机组人员必须能够判断自主执行任务的可信任度。这种信任不仅与系统整体可靠性有关,还与根据态势对系统在特殊态势下执行特定任务的性能评估有关。为此,机组人员必须建立知情信任(Informed Trust)—对应用自主能力的时机、程度以及干预时间进行精确评估。信任度的校准一从过度信任(自满)到信任不足(抵触)可能比较困难,应当基于以下几个因素:

  (1)系统因素。包括整体有效性和可靠性;可靠性主观评估;发生系统故障 (或在态势中无法做出适当的行动),导致快速失去信任且在问题出现后信任恢复缓慢的近因( Recency);系统的可理解性和可预测性、及时性与完整性。

  (2)个体因素。包括个体执行任务的能力、整体信任意愿以及其他个人特征。

  (3)态势因素。包括时间约束、工作负荷、必要工作,及关注其他竞争性任务的需求。

  过去,机组人员就以下问题单独进行决策:

  (1)信息。对信息输入的信任度(例如,基于信息源的可信度、传感器的可靠性、信息的及时性,以及来自其他信息源的确认)。

  (2)他人。对其他队友的信任度。

  (3)自动化。对特定自动化工具的信任度。

  然而,随着自主系统在未来的普及,单独实体之间的界限也将变得模糊。自主系统可以作为信息源,也可以是处理信息并执行行动的系统,或者是机组人员交互的对象。

  必须特别注意,确保机组人员能够在充分了解有关信息的前提下建立一定的信任,确定对自主系统在特定任务、特定态势、特定时刻等条件下当保有的信任度。

  六、研发挑战

  1.  自主性的态势模型

  为了使自主性获得成功,系统必须超越简单计算逻辑,能够在更完整地理断变化的任务和环境的基础上进行推理。这种系统需要考虑:

  (1)表示当前态势、融合多感知输入、保证态势理解和预测,从而支持的计算机模型。

  (2)按照已学习的态势分类(对应于存储的计划与行动)映射当前模式匹配。

  (3)确定对相关信息的注意力分配、信息解释,以及数据不完整时,缺失信息默认值的预期态势模型。

  (4)表示态势表达中不确定性的上下文模型。

  (5)指导信息搜索和解释的基于目标的行为(目标驱动的行为)。

  (6)识别关键环境提示,映射至不同态势类别的能力。

  (7)根据态势类别相对状态和未来状态预测,处理多项目标和动态目标优先级重划分实现数据驱动行为的能力。

  (8)在模式匹配与现有态势类别匹配不理想时,进行推理的系统、环境与其他参与方(如队友、敌手、平民等)的模型。

  (9)态势类别与模型的主动学习与提炼。

  (10)制订计划以实现目标并按需求进行动态重规划的能力。

  (11)按需求优化环境、系统及其他来源的数据釆集,以支持态势模型持续需求的能力。

  (12)与操作员或其他自主系统就上述任意功能(例如,目标统一、态势模型、决策、功能分配与优先级划分计划等)进行交互,以实现协同获准行动的能力。

  2.  学习系统

  在开发系统自主性的过程中,使用学习系统既有优点也有不足。为了使这些学习系统成功地得到应用,我们必须弥补这些不足。以积极的眼光看,应用基于学习算法的系统能够应对各种情境因素(例如,环境因素、任务相关因素、敌手),生成能够应对更多样的态势的鲁棒性方案。在这种情况下,设计人员和开发人员不需要提前预测所有潜在的条件(这从理论和实践的角度来看都十分困难),或者预先指定在各种可能的条件组合下应当采取的措施。相反,他们创建了一种结构,使自主性进行自我组织和学习,并适应不断变化的态势。这要求自主性可发人理解学习和推理。在人的认知和生物学的启发下,我们得出有以下几种方法可用:

  (1)模糊逻辑( Fuzzylogic)。提供将一个或多个连续状态变量映射至相应类别以进行推理和决策的框架 。

  (2)神经网络( NeuralNetworks)。网络利用通过程序在大型典型案例数据库的训练过程中学习到的可变互联权重来进行知识表达的算术框架,学习解决方案。

  (3)遗传与进化算法(Genetic and Evolutionary Algorithms)。在进化遗传的启发下采用重复仿真的方法,缩小潜在选项的范围,选择最优解决方案。

  以上每种方法都可结合适当的系统架构来应对自主性挑战,达到知识获取、编译、表达存储、处理和提取的目的。由于现实环境存在内在的复杂性,这些方法的合理性可能远远超过那些借由专家来获取紧急情况的大量细节信息的方法。

  然而,学习方法也不无挑战。这些方法通常要求开展大量的工作来确定提供给学习系统的相关参数和信息,并创建学习与组织输出的适当系统架构。此外,学习系统还提出了以下新的挑战:

  (1)可理解性(Understandability)。这种系统的逻辑与行为可能对于机组人员很难理解,而且系统开发人员通常无法完全理解自主性的行为方式—尽管我们可以采用相关方法来获取描述算法“黑盒子”内部主要特征的规则。然而这些意见可能并不完整,也不能表达系统行为的复杂全貌。

  (2)确认(Validation)。如果美国空军的安全关键作战行动接受了利用学习技术开发的自主系统,那么成功验证和确认开发这些系统的方法就非常关键。般而言,目前的技术还不足以应对这一挑战。

  (3)标准化(Standardization)。如果学习算法今后能够在实践中继续演化那么在一致性的问题上将会遇到新的重大挑战。系统是否会为了保证一定程度的一致性而将学习到的经验传授给其他系统呢?每种情况下保证学习到适当的经验的标准是什么?这些经验对于其他环境是否具有广泛性?不同系统的行为方式是否不同(要求机组人员能够理解和预测自主性的运行方式,进而以适当的方式与之交互并正确地调整对自主性的信任度)?如果训练期结束后学习算法冻结,那么这些算法是否会与其他方法一样而遭遇脆弱性的问题,因而无法在不断变化的现实环境下学习和自适应?

  如果利用学习系统来开发未来的自主系统,那么我们必须解决这些挑战。

  3.  验证与确认

  美国空军先进系统软件的验证与确认对于保证系统能够安全而一致地按照预期运行十分关键。为此,我们需要引入新的自主软件的验证与确认方法。传统方法以需求跟踪为基础,无法应对自主性软件的复杂性。十分多样的潜在状态和状态组合能够进行相互测试,而临界条件却难以理解。系统支持自主性交互的能力是成功实现自主性的重要条件,确认测试必须明确予以考虑。

  4. 网络

  自主性可能能够应对美国空军作战行动的许多挑战,但也和其他软件系统样,容易受到网络攻击。鉴于自主性的复杂性检测漏洞或故意嵌入的恶意软件更加困难。和自我健康监视系统一样,提高环境感知有助于应对这一挑战。此外,保证网络弹性的方法(包括检测、对抗或者应对自主性和系统其余内嵌部分的网络攻击的能力)非常重要。网络弹性并不是在开发完成之后可以在加入系统的一种特性。相反,在开发任何自主系统方法的过程中我们必须考虑网络弹性的因素。《赛博视图2025》( Cyber vision2025)更为完整地探讨了网络对抗环境下任务保障的相关问题。

12下一页

网友评论
文明上网,理性发言,拒绝广告

相关资讯

推荐图文

关注官方微信

手机扫码看新闻