时间:2018-11-26 19:01来源:飞机维修砖家 作者:中国航空
4 非适度自动化信任和依赖的类型及其危害 4.1 过度信任(overtrust) 4.1.1 自满(complacency) 自满这一术语源自与航空业有关的事故或事件,据称在这些事故或事件当中飞行员、空中交通管制员或者其他操作员并没有进行充分的系统状态检查(疏忽性失误)。一般来说,自满伴随着这样一种假设:“一切顺利”,然而事实上却存在一个导致事故发生的危险条件(Parasuraman & Manzey,2010)。美国国家航空航天局航空安全报告系统(ASRS)将自满作为事故报告的一个编码项目(Billings,Lauber,Funkhouser,Lyman,& Huff,1976)。Wiener(1981)认为ASRS像其他研究者一样,将自满定义为“以低指数的怀疑为特征的心理状态”。Wiener提出进行相关的实证研究是十分必要的,这样可以加深理解自满的机制以加强航空安全。满足于自动化的操作员几乎不去监控自动化正在进行的工作,丧失了对自动化系统自身和周围发展状态的情景意识(Kaber,Onal,& Endsley,1999)。2009年土耳其航空公司TK1951航班坠毁。事故的主要原因是飞行员对自动化系统十分信任,以致于当飞机的高度测量仪失效后迟迟未能检测到这个故障,飞行员仍然使用飞机的自动驾驶模式,最终导致事故的发生。此外,Metzger和Parasuraman(2005)在高保真雷达管制模拟机上对经验丰富的空中交通管制员进行测试中发现:能够在自动化系统失灵的情况下检测到冲突的管制员数量显著低于在人工情况下检测到冲突的管制员数量,进一步的眼动分析还表明那些没有检测到冲突的管制员在自动化辅助情况下比在人工控制情况下,对雷达显示屏的注视次数显著减少。 4.1.2 自动化偏见(automation bias) 自动化偏见被定义为:“以启发式的方式替代对警觉信息的搜索和加工”(Mosier & Skitka,1996)。与自满密切相关的自动化偏见通常与在复杂环境中支持人类决策的自动化辅助决策息息相关(Mosier & Fischer,2010)。在航空领域中,不正确的决策会引起较高的经济后果,而自动化辅助决策系统就是为了提高人类的决策效率,所以自动化辅助决策系统对航空领域有特殊的价值。比如像空中防撞系统(TCAS)或者近地防撞警告系统(GPWS)这样的驾驶舱预警系统,可以提供给驾驶员具体的建议或命令(例如,“拉升!拉升!”)以避免碰撞。由于以下两点原因,辅助决策系统经常是被误用的:第一,自动化生成的线索是十分突显的,吸引了用户的注意并干扰了当前的行进任务;第二,相比于其他来源的建议,用户倾向于赋予自动化辅助系统更大的权威。 自动化偏见导致用户可能不会对所有可用信息逐一分析,哪怕自动化系统的建议是不正确的,用户也会遵从或执行该建议,从而犯下错误(Bahner et al.,2008)。飞行结冰事件严重威胁飞行安全,必须及时处理。McGuirl和Sarter(2006)检查飞行员与自动化辅助决策系统交互的性能,该系统是为飞行结冰事件提供决策支持的。研究结果表明:即便可利用动觉线索与辅助决策相矛盾,飞行员仍然会下意识地听从自动化辅助决策系统的建议,产生了明显的自动化偏见的倾向。Wickens和Alexander(2009)总结几个关于熟练飞行员的模拟研究时发现,即使在飞行员查询原始数据或者观察飞机挡风玻璃外的环境就能发现危险的情况下,52%的飞行员还是会遵从空中交通管制的指引,直接导致他们进入了有障碍物或者危险的路径。 4.1.3 过度依赖(overdependence) 操作者手动执行任务的能力可能会随着时间的推移而降低,这种现象有时也被称为“去技能化”(Ferris,Sarter,& Wickens,2010; Geiselman,Johnson,& Buck,2013)。随着飞行管理系统(FMS)的应用,即使是飞相同的航路,自动驾驶仪规划和采用的路线也要比飞行员的人工算法精细,实现更高效的飞行(Sebok et al.,2012),因此飞行员会依赖这类自动化技术。然而根据美国联邦航空局(Federal Aviation Administration,2013a)进行的一项调查发现,由于飞行员过分依赖自动化操作,以致于当他们需要手动操控飞机时手足无措,调查写道,“飞行员习惯了看着故障发生,而已经丧失了着手去解决它们的积极性。” 2009年法航AF447航班在从巴西里约热内卢飞往法国巴黎的途中坠入大西洋。事故调查表明,尽管恶劣的气象条件(热带风暴)可能是事故的主要原因,然而当险情发生时飞行员向后拉杆(实际上应该向前推杆)导致飞机高空失速也是事故的重要原因(Bureau d’Enquêtes et d’Analyses pour la Sécurité de l’Aviation Civile,2013)。2013年韩国韩亚航空公司214航班在美国旧金山机场降落时坠毁。事故原因调查指向了驾驶员存在驾驶经验欠缺的可能,副驾驶过分依赖自动化飞行控制系统,没有准确地设置自动化,导致飞机在进近阶段撞上防波堤(National Transportation Safety Board,2013)。 4.2 信任不足(undertrust) 4.2.1 自动化惊奇(automation surprise) 自动化惊奇是在20世纪90年代首次出现在航空文献上的措辞(Woods,Johannesen,Cook,& Sarter,1994)。自动化惊奇可以被描述为“在一些情况下,自动化没有立即做出与此前机组人员输入相关信息后相一致的行动,或者自动化的操作与机组成员的预期不一致”。需要注意的是这个定义所指的差异早在飞行员意识到这一点前就已经存在了,这类似于无意识盲视,自满和自动化偏见(Parasuraman & Manzey,2010; de Boer,2012; de Boer,Heems,& Hurts,2014)。有时,自动化惊奇也可以被通俗地定义为飞行员声称或者认为的情景:“自动化正在做的是什么?”,“自动化为什么这样做?”,“下一步自动化将会做什么?”(Wiener,1989)。 在现有的文献中,自动化惊奇经常与在驾驶舱高度自动化条件下的情景意识(situation awareness)丢失有关(Operator's Guide to Human Factors in Aviation,2014),飞行员可能在飞机出现严重故障时感到困惑——弄不清自动驾驶何时结束,自己的职责又何时开始,提高了坠机和失控的风险。有研究使用眼动和三维运动飞行模拟机研究发现:自动化惊奇要么使飞行员的注意变为过度搜索模式,要么变为低效搜索模式(Dehais,Peysakhovich,Scannella,Fongue,& Gateau,2015)。Hurts和de Boer(2014)主持了一项航线飞行员的调查,结果发现自动化惊奇是一种比较常见的现象,平均每个飞行员每个月都会发生。已经发生了几起与自动化惊奇有关的飞行事故,例如前文所述发生在2009年的土耳其航空公TK1951航班和法航AF447航班坠毁事故(Dutch Safety Board,2010; Bureau d’Enquêtes et d’Analyses pour la Sécurité de l’Aviation Civile,2013)。 |