李鵬程,張 力,2,戴立操,胡 鴻,2
(1.南華大學 人因研究所,湖南 衡陽 421001;2.湖南工學院 人因與安全管理研究所,湖南 衡陽 421002)
隨著計算機技術、控制和信息技術的快速發展和日益成熟,核電廠中的儀表和控制系統由傳統的模擬控制發展為數字控制,控制室人-機界面由常規監控盤臺為主發展為以計算機工作站為主。新技術(如數字化技術)是引發情境環境變化的根源,且所有的操縱員行為均會受其所處的情境環境的影響。對于核電廠操縱員,數字化主控室與傳統的模擬主控室相比,在技術系統、人-系統界面、規程系統、報警系統、分析和決策支持系統、班組之間的結構和交流路徑等影響人的可靠性的情境環境發生了變化[1-5]。這些變化導致操縱員的認知過程和行為響應方式也發生了變化,從而出現新的人因失誤機理,包括新的人因失誤模式(如模式混淆、情境意識的喪失)、新的行為形成因子(如界面管理任務)、新的人與自動化的交互方式以及新的人因失誤分布(如執行型失誤的增加)等[6],因此,傳統的人因可靠性分析模型、方法和數據難以滿足當前人因失誤和可靠性分析的要求。目前,基于計算機的數字化技術對操縱員的影響越來越受到大家的關注。本文對數字化主控室的人因失誤進行分類,通過全尺寸模擬機實驗來辨識數字化主控室中操縱員發生的主要人因失誤模式及其原因,為人因失誤的預防提供理論支持。
人因失誤的定義是進行人因失誤分類的基礎。事實上,不同學科領域的學者對人因失誤有不同的定義,且術語“人因失誤”也已用于表示事情的原因、事件本身(行為)以及行為的后果[7]。如Rigby[8]將人因失誤定義為:作用于系統的人的行為沒有或沒有充分滿足系統的要求稱為人因失誤。Swain[9]將人因失誤定義為:能夠或有可能引發不期望事件的所有人的行為或疏忽。上述定義主要是依據行為的后果進行確定的,工程技術人員趨向于將人看作是技術系統中的一組成部分,像描述設備的成功或失效一樣來看待人工操作的成功與失敗。
Reason[10]認為:人因失誤就是計劃中的心理和身體行為序列在執行后沒能達到意向中的結果,且這種失效不能歸因于隨機觸發因素的干擾作用。該定義是從心理學角度根據事件本身(行為)進行定義的,人被看作是技術系統中的一信息處理組分。心理學家通常最初假設人的行為基本上是帶有目的性,只有依據人的主觀目標和意向才能完全懂得人的行為。由該定義可知,人因失誤應包括內部的失誤模式與外部的失誤模式。
Str?ter[11]將人因失誤定義為:人因失誤一直存在于工作系統中,它具有引起工作系統處于非期望的或錯誤的狀態的特性,它的產生導致系統需求處于沒有滿足或未能充分滿足的狀態,個人是工作系統的一組分,并與工作中的其他組分相互作用,工作系統中的所有組分相互依賴,相互影響。由Str?ter的定義可知,其人因失誤對應于“失誤作為原因”、“失誤作為后果”,而沒有涉及“失誤作為行為/事件本身”。
根據上述定義可知,人因失誤的定義是多種多樣的,但不管如何定義,人因失誤一般具有以下3個基本的性質:
1) 人工操作是一有組織的機體,它像系統的硬件和軟件一樣具有失效率與容許度。
2) 人因失誤包括隱性失誤(認知失誤)和顯性失誤(動作失誤,可觀察到的)。隱性失誤是導致顯性失誤的原因之一,也是人因失誤分析不可缺少的重要組成部分。
3) 相對于正常的人的行為,人因失誤是一貶義詞,它的產生一般歸因于各種不利的情境環境條件。從工程應用的角度看,如核電廠中的人因可靠性分析,一般關注的是可能引起非期望后果的人的行為。因此,從工程的視角看,根據人的行為的后果來判定其是否屬于人因失誤是有其合理性的。
從理論和工程應用兩方面,同時兼顧技術系統的局限性和人的局限性對人因失誤進行全面定義:對于前線操縱員,受其個人的內部因素和所處外部情境因素的共同影響,使其不能精確地、恰當地、充分地、可接受地完成其所規定的績效標準范圍內的任務以滿足系統的需求,則操縱員的這些行為(內在認知的和外在可觀察到的行為)或疏忽被稱為人因失誤。簡而言之,人因失誤就是人的認知失誤和行為失誤(可觀察到的),人的認知功能和行為響應沒有達到正確和預期的標準和任務績效。
Rouse等[12]認為,如果人因失誤是基于失誤發生于其中的過程模型來進行分類,則會提高人因失誤分類圖式的內部一致性。這樣一個模型有利于識別不同的分類以及說明分類之間的關系。Kirwan[13]也認為一個理論上合理的模型或框架對于減少失誤是十分重要的。盡管存在大量典型的人員認知模型或框架(信息處理模型[14]、決策階梯模型與技能-規則-知識(S-R-K)模型[15]、7階段認知模型[16-17]、通用失誤模擬系統[10]、操縱員的概念模型[12]、簡單認知模型[7,18]、認知模型[19]、IDAC模型[20]以及美國核管會發展的模型[21]等),但由于新技術出現帶來的影響,上述認知模型或框架不能完全用于分析核電廠數字化主控室操縱員的行為。因此,需發展新的認知模型來指導核電廠數字化主控室的人因失誤分類和分析,本文建立的數字化主控室的認知模型主要是基于美國核管會的模型(圖1)并通過認知任務分析建立起來的。

圖1 核電廠操縱員的認知行為模型
人的操作響應行為均是在特定的場景中執行,由于技術的發展和自動化程度的提高,在核電廠這種復雜的社會-技術系統中,操縱員的主要任務表現為認知任務(圖1),主要包括:1) 監視/發覺;2) 狀態評價;3) 響應計劃;4) 響應執行[21-22]。上述4個過程被看作認知域[23],其內部還包括若干認知功能,用認知域來表示有助于克服早期信息處理理論的序列處理的過時思想。
國際上對圖1中操縱員的4個認知域還沒有統一的清晰界定,從而導致混用并在工程應用上存在困難。認知域的界定對于確定認知域的邊界和工程應用是有益的。監視/發覺是指從復雜動態的工作環境中獲取信息的行為[24]。當核電廠發生異常狀態時,操縱員將根據核電廠的狀態參數構建一合理的和合乎邏輯的解釋,來評估電廠所處的狀態,作為后續的響應計劃和響應執行決策的依據。這一系列過程稱為狀態評估(或情境意識),并涉及兩個相關模型,即狀態模型和心智模型[25]。狀態模型就是操縱員對特定狀態的理解,且當收集到新的信息時,狀態模型會被經常更新。心智模型是通過正式的教育、具體的培訓和操縱員經驗來構建,并存儲于大腦中。狀態評估過程主要就是發展一狀態模型來描述當前電廠的狀態。響應計劃是指為解決異常事件而制定行動方針、方法或方案的決策過程[26]。響應執行就是執行在響應計劃中確定的動作或行為序列。
對各種人因失誤分類進行區分是非常重要的,因不同的失誤類型有不同的基本的失誤機制(不同的心理起源),發生在不同的系統部位,由不同的失誤原因引起以及需要不同的方法來進行失誤管理和糾正[22]。
1) 監視/發覺認知失誤分類
在監視/發覺認知過程中,最主要的功能是獲取信息和搜索信息,這種監視行為主要有數據驅動的監視(環境主導,從現象到本質,從微觀到宏觀)和知識驅動的監視(知識經驗主導,從規律到數據,從宏觀到微觀)。數據驅動的監視受人-機界面設計特征或信息特征的影響,如信息的表現形式、信息的醒目性(尺寸、亮度、聲音的大小等)以及信息行為(如信息信號的頻寬及變化率等),例如,信號變化迅速會被操縱員頻繁注意。由于這種監視是受信息的特征驅動的,因此,一般該類監視被認為是“被動的”,而知識驅動的監視一般看作是“主動的”監視,因為操縱員不僅對環境特征(如報警、系統失效)做出響應,且操縱員會有意將自己的注意力導向能完成特定目標的特定信息呈現區(亦可稱目標驅動)。由于受感知到的報警、系統失效或備選目標的影響,故其也稱為模型驅動的信息搜索[26-27]。在緊急情況下,核電廠操縱員需監視許多信息,但操縱員只有有限的注意資源和記憶能力。因此,如果沒有很好地分配注意資源和記憶能力,則會導致信息搜索失誤,從而引起各種認知失誤。
在數字化控制系統中,操縱員需要從畫面(報警畫面、規程畫面、狀態畫面等)、后備盤、電廠記錄日志和紙質規程中等獲取信息。操縱員為了獲取信息,首先要產生監視行為(看、聽,有主動看,有被動發覺)、然后視覺需定位到監視目標、對目標進行辨認,如讀規程,再從畫面中找信息,進行認識。假設針對事故后規程中的基本任務“確認RCP016KG處于自動”,則操縱員首先需執行監視行為(看、聽、讀),然后需對這個基本任務的認識,再者需在畫面中定位或搜索到RCP016KG,最終完成單個信息的監視。如果對于復雜的任務,需搜集多個信息,不過也是重復單個信息的認知過程。在此過程中可能產生的監視失誤列于表1。如針對多個信息搜索有:遺漏信息、收集到不相關的信息、收集到多余的信息、信息收集不充分,分別采用關鍵詞列于表1中。
2) 狀態評價認知失誤分類
在核電廠數字化控制系統中,由于自動化水平的提高,諸多的復雜任務均被自動化所取代(如安注是否投運,是否失去給水等),由操縱員支持系統來支持操縱員的診斷和判別。事故情況下,當前操縱員的任務更多表現為簡單任務,主要表現在信息比較(如溫度、壓力的比較)、簡單判斷(如確認報警是否出現,至少1個蒸發器被隔離)、簡單計算(如兩個蒸發器的壓差是否大于1 MPa(g))等。因此,對于這些簡單任務的評估稱之為信息比對,即監視中識別的參數與規程中規定的參數的比較或系統組件的狀態確定。再者,若干簡單任務的組合可識別出系統組件的狀態(如是否關閉RCP泵需判斷一系列標準),通過簡單任務的比對,可得到單一參數的結果,然后將這些結果進行信息整合(涉及理解和推理),識別更大的組件或子系統的狀態,這一系列行為過程可能涉及的認知功能包括“信息比對”、“信息的整合”、“狀態的理解”。對于更為復雜的事故的判斷(盡管DOS規程不需要判斷發生何種事故,但關鍵的六大參數及其組合的判斷也是復雜的),則需對各種子系統的狀態的組合進行判斷,同樣涉及上述認知功能。同樣,對于不同的故障、失效或事故的原因需要識別,才有利于響應計劃的選擇和制定,再者事故的嚴重性、組件、子系統和系統未來發展的情況需要做出預測。對于新出現的情況,操縱員也需根據自己的知識和經驗,以及有限的數據,進行狀態預計和深層次的推理來評估當前狀態。因此,狀態評估中還涉及的認知功能有“原因識別”、“狀態預計”。同樣,在越高一級的和復雜的狀態的情境意識中越需“監視”、“響應計劃”以及“響應執行”的認知功能的支持。

表1 核電廠數字化主控室人因失誤分類
在數字化控制室中,需對信息進行比對和判斷,識別參數是否異常,從而容易產生信息的比對失誤,沒有比對或比對延遲。針對復雜任務,在搜集若干信息(在監視中完成)并進行比對后,對這些信息進行整合,綜合考慮系統狀態,有可能產生對狀態的解釋錯誤、對狀態的解釋不充分、對狀態的解釋延遲以及解釋的喪失,比如有些參數與許多系統相關,則需進一步搜集相關信息才能做出進一步的解釋。其他具體的分類列于表1。
3) 響應計劃認知失誤分類
在應急條件下,操縱員先識別目標,為了完成目標,就會產生一種或多種可供選擇的響應方案,評估可供選擇的方案,選擇最優的行為方案執行以達到目標。一般而言,核電廠有正式的紙質和電子規程來指導操縱員的響應,但多年的實踐和大量的案例表明操縱員不一定完全按規程辦事,且盡管有規程指導,但規程不一定完全正確[28-29]。因此,操縱員在制定、評價和選擇響應計劃的過程中,可能出現各種人因失誤。如果存在響應計劃,操縱員可能在選擇響應計劃時出現錯誤,或未能做出選擇,選擇之后,操縱員需跟隨響應計劃,在跟隨的過程中可能出現失誤,如果沒有響應計劃,操縱員需重新評估做出新的響應計劃,但響應計劃可能是錯誤的、不充分的、無法做出以及延遲做出等。具體的分類列于表1。
4) 響應執行失誤分類
響應執行涉及可觀察到的行為失誤。行為失誤是指在事件/事故發生之前,一線操縱員失誤的外在表象。行為失誤發生在四維時空中,可用外在失誤模式(EEM)來表示。行為失誤模式可分為操作遺漏、錯誤的目標、錯誤的操作、不充分的操作和操作延遲5大類,其中操作遺漏包括遺漏規程中的步驟、沒有認識到未執行的動作、遺漏規程步驟中的一個指令等;錯誤的目標包括正確的操作在錯誤的目標上、錯誤的操作在錯誤的目標上;不充分的操作包括操作太長/太短、操作太大/太小、操作不及時、操作不完整、調節速度太快/太慢;錯誤的操作包括操作在錯誤的方向上、錯誤的操作在正確的目標上、操作序列錯誤、數據輸入錯誤、記錄錯誤;操作延遲是指操作太晚。另外,對于班組之間的交流錯誤,可歸類到行為響應失誤分類中,包括錯誤的交流、不充分的交流、沒有交流。具體的分類列于表1。
為識別核電廠數字化控制系統中發生的主要人因失誤模式,采用全尺寸模擬機實驗并結合操縱員訪談來對人因失誤模式及原因進行識別。2011年模擬事故復訓安排在11月至12月進行,共對4個班組(其中1個臨時班組)參加的培訓進行了觀察、錄像和分析。每個班組有RO1(一回路操縱員)、RO2(二回路操縱員)、協調員、值長4位操縱員,其中RO1主要負責一回路的系統控制,RO2主要負責二回路的系統控制,協調員主要負責兩位操縱員的協調和監護,值長主要負責對電廠狀態的重要決策。他們的平均年齡為29歲,最小年齡為26歲,最大年齡為35歲,均有5年以上核電廠工作經驗。另外,教員會在模擬培訓中扮演主控室外的多個角色,以上培訓過程模擬真實事故環境。每個班組的培訓時間為1周,每天3 h模擬培訓和3 h討論分析,培訓內容主要為常見的單個嚴重事故(如失電、燃料包殼破損泄漏、一回路管道破口、二回路管道破口、失去熱阱、失去給水等)或這些事故的疊加。培訓過程中主要培訓操縱員及其班組對事故的監視、診斷和處理能力。主要的模擬機實驗場景(復訓)列于表2。

表2 主要的模擬機實驗場景
通過分析會的討論與錄相分析,識別的主要人因失誤模式與引發失誤的原因列于表3。依據模擬機實驗結果可知,在每個認知域中均發生了人因失誤模式。

表3 模擬機實驗識別的主要人因失誤模式及原因

續表3
在監視/發覺的認知階段,發生的主要人因失誤包括“信息定位喪失”、“沒有監視到(看到或聽到)”、“監視延遲”和“未能認識”,引起這些失誤的原因主要涉及“信息所在的畫面被覆蓋”、“需要的信息在畫面中的位置不固定”、“信息之間的關聯性由成百上千的一張張畫面被分隔,操縱員看起來需完成復雜的“拼圖游戲”一樣來對信息進行關聯”,這些數字化主控室的新特征將增加操縱員的認知負荷(如記憶負荷和注意負荷)。另外,這也是操縱員不能遵從特定的行為規范的原因之一。
在狀態評價認知階段,識別的主要人因失誤包括“狀態的誤解”、“未能對狀態做出解釋,即解釋喪失”、“不充分的解釋”和“原因辨識失誤”。引發這些問題的原因主要包括“人機界面的問題,如信息的相似性”、“技術系統的問題,如自動化水平的高低和系統響應的延遲等”。例如,有些規程被計算機自動執行,使得操縱員沒有參與到這些規程任務的執行中,從而使操縱員容易喪失對該類任務的情境意識。再者,大量的信息有限顯示,會產生一個新的問題——鎖孔效應,操縱員需要復雜導航并且只能看到畫面的一小部分,而對整個電廠狀態缺乏認識,這就像通過門上的一個小孔來看外面的世界,只能看到一部分。“操縱員完成任務的時間與系統確定的可用時間不是很匹配,有時操縱員的工作很閑,有時操縱員的任務忙不過來,如在誤安注的情況下”,這將給操縱員帶來心理負荷和壓力。此外,不充分的培訓、知識、經驗和技能也是引發狀態評估失誤的主要原因之一。
在響應計劃階段,發生的主要人因失誤包括“計劃跟隨失誤”、“計劃選擇失誤”,其主要原因在于“時間壓力”,例如由復雜的界面管理任務帶來的時間壓力,和操縱員沒有遵從行為規范以及故意違規等引起響應計劃失誤。
在響應執行階段,發現主要的失誤模式包括“操作遺漏”、“調節失誤”、“操作延遲”、“操作在錯誤的方向”、“不充分的信息交流”、和“錯誤的信息交流”。引發這些失誤的原因涉及“人機界面問題,如畫面的相似性”、“技術系統問題,如系統反饋延遲”、“由任務的復雜性和緊急性帶來的負荷”、“班組結構,如變化的班組交流路徑和角色”等。詳細的有關組織與原因的分析結果列于表3(原因的辨識框架選取參見文獻[30])。毋庸置疑,前面的認知功能失誤不僅可以引發后續的認知功能失誤,而且可能在下一階段得到發現和恢復。
在核電廠數字化主控室中(基于計算機的主控室),由于影響操縱員行為可靠性的情境環境發生了變化,這些變化的主控室設計特征改變了操縱員的認知行為機理,可能給操縱員的可靠性帶來不利影響。因此,為了識別數字化主控室中操縱員的人因失誤模式,本文通過現場觀察、操縱員訪談和模擬機實驗,建立了數字化控制系統中的人因失誤分類體系,并通過模擬機實驗辨識出主要的人因失誤,得到如下結論。
1) 改變的情境環境特征可能對操縱員的情境意識等產生不利影響。
2) 基于認知任務分析識別數字化控制系統中操縱員在監視/發覺、狀態評價、響應計劃和響應執行的認知域中主要包括的認知功能有:信息搜索、信息比對、信息整合、狀態理解、原因辨識、計劃跟隨、操作等。應急事故規程中任務的完成需要若干個認知功能的支持,支持的認知功能可能處在不同的認知域中。
3) 基于認知模型和任務分析對人因失誤進行了分類,并通過模擬機實驗識別數字化主控室中操縱員的主要人因失誤,包括狀態解釋錯誤、喪失對狀態的解釋、對狀態的解釋不充分以及原因辨識錯誤等。
盡管建立了核電廠數字化主控室人因失誤分類,并通過模擬機實驗辨識出主要的人因失誤模式,但人因失誤的概率、影響人因失誤的因素、人因失誤與影響因素的因果關系及工程應用問題等還需進一步深入研究。
參考文獻:
[1] SHERIDAN T B. Telerobotics, automation, and human supervisory control[M]. Cambridge, Mass: The MIT Press, 1992.
[2] WOODS D D, JOHANNESEN L J, COOK R I, et al. Behind human error: Cognitive systems, computers, and hindsight[M]. Wright-Patterson AFB, Ohio: Crew Systems Ergonomics Information Analysis Center, 1994.
[3] Committee on Application of Digital Instrumentation and Control Systems to Nuclear Power Plant Operations and Safety, National Research Council. Digital instrumentation and control systems in nuclear power plants: Safety and reliability issues[M]. Washington D. C.: The National Academies Press, 1997.
[4] O’HARA J M, BROWN W S, LEWIS P M, et al. The effects of interface management tasks on crew performance and safety in complex, computer-based systems: Detailed analysis, NUREG/CR-6690(Vol.2)[R]. Washington D. C.: Nuclear Regulatory Commission, 2002.
[5] O’HARA J M, HIGGINS J C, STUBLER W F. Computer-based procedure systems: Technical basis and human factors review guidance, NUREG/CR-6634[R]. Washington D. C.: Nuclear Regulatory Commission, 2000.
[6] SARTER N N, WOODS D D, BILLINGS C E. Automation surprises[M]∥SALVENDY G. Handbook of human factors/ergonomics. New York: Wiley, 1997.
[7] HOLLNAGEL E. Human reliability analysis: Context and control[M]. London: Academic Press, 1993.
[8] RIGBY L. The nature of human error[C]∥24 Annual Technical Conference Transaction of the ASQC. Pittsburgh, PA: [s. n.], 1970.
[9] SWAIN A D. Quantitative assessment of human errors[M]. K?ln, Germany: Protokoll des Vortrages bei der GRS im Juni GRS, 1992.
[10] REASON J. Human error[M]. Cambridge: Cambridge University Press, 1990.
[12] ROUSE W B, ROUSE S H. Analysis and classification of human error[J]. IEEE Transactions on Systems Man and Cybernetics, 1983, 14: 539-549.
[13] KIRWAN B. Human error identification in human reliability assessment, Part 1: Overview of approaches[J]. Applied Ergonomics, 1992, 23(5): 299-318.
[14] WICKENS C. Engineering psychology and human performance[M]. New York: [s. n.], 1992.
[15] RASMUSSEN J. Information processing and human-machine interaction: An approach to cognitive engineering[M]. New York: North-Holland, 1986.
[16] NORMAN D A. Categorisation of action slips[J]. Psychological Review, 1981, 88: 1-15.
[17] NORMAN D A. Cognitive engineering[M]∥NORMAN D A, DRAPER S W. User centered system design: New perspectives on human-computer interaction. Lawrence Erlbaum: [s. n.], 1986.
[18] HOLLNAGEL E. Cognitive reliability error analysis method[M]. London: Elsevier, 1998.
[19] JONES D G, ENDSLEY M R. Sources of situation awareness errors in aviation[J]. Aviation, Space, and Environmental Medicine, 1996, 67(6): 507-512.
[20] CHANG Y H J. Cognitive modeling and dynamic probabilistic simulation of operating crew response to complex system accident(ADS-IDACrew)[D]. Maryland: University of Maryland, 1999.
[21] THOMPSON C M, COOPER S E, BLEY D C, et al. The application of ATHEANA: A technique for human error analysis[C]∥IEEE Sixth Annual Human Factors Meeting. Florida: [s. n.], 1997.
[22] REASON J, MADDOX M E. Human factors guide for aviation maintenance[M]. Washington D. C.: Federal Aviation Administration/Office of Aviation Medicine, 1996
[23] REASON J T. A framework for classifying errors[M]∥RASMUSSEN J, DUNCAN K D, LEPLAT J. New technology and human error. Chichester: Wiley, 1987.
[24] O’HARA J M, HIGGINS J C, STUBLER W F, et al. Computer-based procedure systems: Technical basis and human factors review guidance, NUREG/CR-6634[R]. Washington D. C.: Nuclear Regulatory Commission, 2000.
[25] O’HARA J M, HIGGINS J C, KRAMER J. Advanced information systems: Technical basis and human factors review guidance, NUREG/CR-6633[R]. Washington D. C.: Nuclear Regulatory Commission, 2000.
[26] VICENTE K J, MUMAW R J, ROTH E M. Operator monitoring in a complex dynamic work environment: A qualitative cognitive model based on field observations[J]. Theoretical Issues in Ergonomics Science, 2004, 5(5): 359-384.
[27] KONTOGIANNIS T. A framework for the analysis of cognitive reliability in complex systems: A recovery centred approach[J]. Reliability Engineering and System Safety, 1997, 58(3): 233-248.
[28] 張力,趙明. WANO人因事件統計及分析[J]. 核動力工程,2005,26(3):291-296.
ZHANG Li, ZHAO Ming. Statistics and analysis of WANO human factor events[J]. Nuclear Power Engineering, 2005, 26(3): 291-296(in Chinese).
[29] 張力,鄒衍華,黃衛剛. 核電站運行事件人誤因素交互作用分析[J]. 核動力工程,2010,31(6):41-46.
ZHANG Li, ZOU Yanhua, HUANG Weigang. Interactive analysis of human error factors in NPP operation events[J]. Nuclear Power Engineering, 2010, 31(6): 41-46(in Chinese).
[30] LI P C, CHEN G H, DAI L C, et al. A fuzzy Bayesian network approach to improve the quantification of organizational influences in HRA frameworks[J]. Safety Science, 2012, 50(7): 1 569-1 583.