航空翻译_飞行翻译_民航翻译_蓝天飞行翻译公司

当前位置: 主页 > 航空新闻 > 民用航空 >

自动化信任和依赖对航空安全的危害及其改进

时间:2018-11-26 19:01来源:飞机维修砖家 作者:中国航空


4.2.2 虚假警报(false alarms)

虚假警报(虚警)也是信任不足的一种典型表现,虚警是指即使不存在触发告警的条件,警告也会响起(Parasuraman,Hancock,& Olofinboba,1997)。这种误报导致操作员不信任告警系统,当用户关闭这些“恼人”且不可靠的告警系统时从未出现过紧急事件,导致用户对真实告警的忽略。研究发现,尽管45%的空中交通管制员在收到冲突告警后不需要采取任何行动(也没有采取任何行动),但是恰恰一些灾难性事故的发生可能是由“狼来了”效应(“Cry Wolf” Effect)所导致的(Wickens et al.,2009)。

2001年大韩航空公司的客机在关岛坠毁,这起事故就是“狼来了”效应所导致的悲惨后果的典型代表。在这起事故中,由于近地防撞系统发出太多的虚假警告,空中交通管制员禁用了此系统,致使他们根本没有注意到这架飞机在还没有进入跑道之前就已经撞到山上。同样危险的是,机载电脑还会在危急关头向飞行员不分主次地倾泻大量警示信号(包含了大量的虚警),使飞行员应接不暇。例如2010年澳大利亚航空32号航班发生引擎爆炸,当机长尝试降落时,他和副驾驶却被屏幕上闪出的120个指令菜单晃得眼花缭乱,而不清楚究竟哪个信号是解决问题的关键信息。万幸的是该航班最终成功迫降新加坡樟宜机场。

5 解决途径:以人为中心的自动化显示设计和训练

对于如何解决这些由自动化信任和依赖引起的航空危害,就要从引起问题的原因入手,“对症下药”,力求“药到病除”。从上文我们可以看到,非适度的自动化信任和依赖(过度信任和信任不足)即过度的信任校准是导致人-自动化不良交互的重要原因。Lee和See(2004)认为适度的自动化信任和依赖可以减少误用自动化和不使用自动化(由过度信任和信任不足所致)发生的频率。值得欣慰的是,已有大量的证据表明人类用户所表现出的过度信任和信任不足,都可以通过以人为中心的自动化显示设计和训练得以改进。因此以人为中心的自动化(human-centered automation; Billings,1997)设计,或者说如何做到人?自动化的适度结合,成为自动化系统的设计者所面临的挑战(Lee & Seppelt,2009)。

5.1 减轻过度信任和依赖

对于减轻过度信任和依赖来说,有证据表明提供自动化的可靠性信息(例如,告知用户自动化有50%、70%或90%的可靠性)可以帮助用户校准他们对自动化战斗识别系统的信任和依赖(Neyedli,Hollands,& Jamieson,2011; Wang,Jamieson,& Hollands,2009)。此外,通过对自动化首次失败反应和后续失败反应进行的比较,发现在实际使用自动化前进行训练或练习是解决首次失败最好的技术之一(Manzey,Reichenbach,& Onnasch,2012)。对于用户来说,仅仅被告知会发生故障远不及实际体验该故障更有效。Bahner等(2008)研究发现,用户的自动化故障体验降低了自满水平。这一发现表明暴露于自动化故障的训练可以减轻过度信任和依赖。对于飞行员或空中交通管制员来说,理解自动化系统的局限性,做好突发故障的模拟训练可以提高自动化信任和依赖的校准水平。

5.2 减轻信任不足

由于自动化系统的复杂性,操作员可能不理解“黑匣子”里面究竟发生了什么,因此对复杂自动化系统进行功能简化或者良好的界面设计会使飞行员感觉自动化系统更明确,同时也应该加强操作员对自动化运行机制的培训。在显示设计方面,Dehais等(2015)通过在驾驶舱里增加了一种让飞行员详查自动驾驶仪详情的文本提示降低了自动化惊奇的可能。此外,有证据表明报警器误报问题在一定程度上可以通过似然度显示而减轻(Sorkin,Kantowitz,& Kantowitz,1988)。这种显示设计对临界条件的存在与否提供了两个或多个确定性等级水平。也就是说,这种显示设计允许系统说“我不确定”,而不是随便给出一个完整的警报或根本不给警报。这样,在信任程度上允许报警系统有一个相应的区间(例如,很不确定,不确定,确定,很确定),能够对人和系统的灵敏度带来一定的改善。在培训方面,用户必须意识到系统发生故障的可能性很微小,但是带来的后果却是危险的。因而早期的告警是必要的,即便报警器的误报现象(“狼来了效应”)是不可避免的。所以无论是飞行员还是空中交通管制员,当有警报发生时必须尽快处理不容忽视;然而相应的诊断虚警的经验和专业培训也是必不可少的。

6 总结与展望

自动化系统广泛地应用在航空业中,无论是机载自动化设备还是地面空管自动化设备,都旨在减少飞行员和空中交通管制员的负荷,完成操作者无法或者不便直接执行的任务,弥补操作者能力的局限,增强协助人的操作,更经济高效。例如,Watts,Ambrosia和Hinkley(2012)开发的自动化航线规划辅助系统,Giraudet,Imbert,Bérenger,Tremblay和Causse(2015)设计的空中交通管制的界面显示等。然而由于非适度的自动化信任和依赖校准,人-自动化系统并非总是良好匹配。过度自信(自满、自动化偏见、过度依赖)和信任不足(自动化惊奇、虚假警报)及其所引发的航空安全事故和事故征候值得我们深入探究。需要说明的是,自动化信任和依赖并非一成不变而是动态变化的,就一起航空安全事故或者事故征候来说,存在过度信任和信任不足两种现象都发生的可能。因此今后可以从自动化信任和依赖的不同水平和自动化的不同阶段的角度出发,继续这一问题的研究。

以人为中心的自动化显示设计和训练可以将这种非适度自动化信任和依赖调整到适度的状态。良好的显示设计应该对自动化当前状态、状态的变化(比如不同自动化水平和功能模式之间的切换)以及自动化所监测或控制的进程状态等关键信息的呈现上做出改进,使用户易于熟悉理解。显示设计是可以不断改进的,但是航空活动毕竟是复杂且专业的,相关的手动训练和事故模拟训练是必不可少的。最后从航空业本身的发展上来说,技术上的进步已经可以使无人(遥控或者自动)商用飞行成为可能。如此,由飞行员非适度的自动化信任与依赖所造成的航空活动中的不利影响将不会出现。但是,对于地面操作人员来说,这种新技术的引入是否会产生新的非适度自动化信任和依赖,进而造成危害呢?另外,从乘客的角度来说,人们会不会接受这种新的无人商用飞行呢(Hughes,Rice,Trafimow,& Clayton,2009; Molesworth & Koo,2016; Riceetal.,2014)?这些都是未来值得研究的问题。

飞行翻译 www.aviation.cn
本文链接地址:自动化信任和依赖对航空安全的危害及其改进