La teoria HRO è uscita dalla normale teoria degli incidenti, che ha portato un gruppo di ricercatori dell’Università della California, Berkeley (Todd LaPorte, Gene Rochlin e Karlene Roberts) a studiare come le organizzazioni che lavorano con sistemi complessi e pericolosi funzionavano senza errori. Hanno studiato tre organizzazioni: portaerei nucleari degli Stati Uniti (in collaborazione con contrammiraglio (ret.) Tom Mercer sulla USS Carl Vinson), il sistema di controllo del traffico aereo della Federal Aviation Administration (e l’aviazione commerciale più in generale) e le operazioni di energia nucleare (Pacific Gas and Electric’s Diablo Canyon reactor).
Il risultato di questo lavoro iniziale è stata la definizione delle caratteristiche di HROs tenere in comune:
- Ipercomplessità-estrema varietà di componenti, sistemi e livelli.
- Accoppiamento stretto-interdipendenza reciproca tra molte unità e livelli.
- Estrema differenziazione gerarchica – livelli multipli, ognuno con i propri meccanismi di controllo e regolazione elaborati.
- Un gran numero di decisori in reti di comunicazione complesse – caratterizzate da ridondanza nei sistemi di controllo e informazione.
- Grado di responsabilità che non esiste nella maggior parte delle organizzazioni – prestazioni scadenti o deviazioni dalle procedure standard incontrano gravi conseguenze negative.
- Alta frequenza di feedback immediato sulle decisioni.
- Fattori di tempo compressi-i cicli delle attività principali sono misurati in secondi.
- Più di un risultato critico che deve avvenire simultaneamente – la simultaneità significa sia la complessità delle operazioni sia l’incapacità di ritirare o modificare le decisioni delle operazioni.
È importante notare che molte organizzazioni visualizzano alcune di queste caratteristiche, ma le HROS le visualizzano tutte contemporaneamente.
I teorici dell’incidente normale e dell’HRO hanno convenuto che la complessità interattiva e l’accoppiamento stretto possono, teoricamente, portare a un incidente di sistema. Tuttavia, hanno opinioni diverse sul fatto che tali incidenti di sistema siano inevitabili o gestibili. Incidenti gravi in operazioni ad alto rischio e pericolose possono essere prevenuti attraverso una combinazione di progettazione organizzativa, cultura, gestione e scelta umana. I teorici di entrambe le scuole pongono molta enfasi sull’interazione umana con il sistema come causa (NAT) o prevenzione (HRO) di un incidente sistemico. La teoria dell’organizzazione ad alta affidabilità e l’HROs sono spesso in contrasto con la normale Teoria degli incidenti (NAT) di Charles Perrow (vedi Sagan per un confronto tra HRO e NAT). NAT rappresenta il tentativo di Perrow di tradurre la sua comprensione del disastro presso l’impianto nucleare di Three Mile Island in una formulazione più generale di incidenti e disastri. Il libro di Perrow del 1984 includeva anche capitoli su impianti petrolchimici, incidenti aerei, incidenti navali, incidenti “terrestri” (rotture di dighe, terremoti) e incidenti “esotici” (ingegneria genetica, operazioni militari e volo spaziale). A Three Mile Island la tecnologia era strettamente accoppiata a causa di processi dipendenti dal tempo, sequenze invarianti e gioco limitato. Gli eventi che si sono diffusi attraverso questa tecnologia sono state concatenazioni invisibili che erano impossibili da anticipare e in cascata in modo interattivo complesso. Perrow ha ipotizzato che, indipendentemente dall’efficacia della gestione e delle operazioni, gli incidenti in sistemi caratterizzati da accoppiamento stretto e complessità interattiva saranno normali o inevitabili in quanto spesso non possono essere previsti o prevenuti. Questa visione pessimistica, descritta da alcuni teorici come spudoratamente tecnologicamente deterministica, contrasta con la visione più ottimistica dei sostenitori dell’HRO, che sostenevano che le organizzazioni ad alto rischio e ad alto rischio possono funzionare in sicurezza nonostante i pericoli di sistemi complessi. Nonostante le loro differenze, NAT e la teoria dell’organizzazione ad alta affidabilità condividono un focus sulle basi sociali e organizzative della sicurezza del sistema e della causalità/prevenzione degli incidenti. Mentre la ricerca continuava, è emerso un corpo di conoscenze basato sullo studio di una varietà di organizzazioni. Ad esempio, fire incident command system, l’unità di terapia intensiva pediatrica dell’ospedale Loma Linda e l’operatore di sistema indipendente della California sono stati tutti studiati come esempi di HROs.
Sebbene possano sembrare diverse, queste organizzazioni hanno una serie di somiglianze. In primo luogo, operano in ambienti sociali e politici implacabili. In secondo luogo, le loro tecnologie sono rischiose e presentano il potenziale di errore. In terzo luogo, la gravità e la scala delle possibili conseguenze da errori o errori preclude l’apprendimento attraverso la sperimentazione. Infine, tutte queste organizzazioni utilizzano processi complessi per gestire tecnologie complesse e lavori complessi per evitare guasti. Le HROS condividono molte proprietà con altre organizzazioni ad alte prestazioni, tra cui personale altamente qualificato, formazione continua, sistemi di ricompensa efficaci, frequenti audit di processo e sforzi di miglioramento continuo. Tuttavia altre proprietà come un senso di vulnerabilità a livello di organizzazione, un senso di responsabilità e responsabilità ampiamente distribuito per l’affidabilità, una diffusa preoccupazione per l’errata percezione, l’equivoco e l’incomprensione generalizzata in un’ampia serie di compiti, operazioni e ipotesi, pessimismo su possibili fallimenti, ridondanza e una varietà di controlli e controlli contrari come precauzione contro potenziali errori sono più distintivi.
Definire un’elevata affidabilità e specificare cosa costituisce un’organizzazione ad alta affidabilità ha presentato alcune sfide. Roberts inizialmente ha proposto che le organizzazioni ad alta affidabilità sono un sottoinsieme di organizzazioni pericolose che hanno goduto di un record di alta sicurezza per lunghi periodi di tempo. In particolare ha sostenuto che: “Si può identificare questo sottoinsieme rispondendo alla domanda, “quante volte questa organizzazione potrebbe aver fallito con conseguenze catastrofiche che non ha fatto?”Se la risposta è dell’ordine di decine di migliaia di volte l’organizzazione è “alta affidabilità”” (p. 160). Definizioni più recenti si sono basate su questo punto di partenza, ma hanno sottolineato la natura dinamica della produzione di affidabilità (cioè, costantemente cercando di migliorare l’affidabilità e intervenendo sia per prevenire errori e guasti e per far fronte e recuperare rapidamente se gli errori si manifestano). Alcuni ricercatori vedono HROs come affidabilità-ricerca piuttosto che affidabilità-raggiungimento. Le organizzazioni che cercano l’affidabilità non si distinguono per i loro errori assoluti o il tasso di incidenti, ma piuttosto per la loro “gestione efficace delle tecnologie innatamente rischiose attraverso il controllo organizzativo sia del pericolo che della probabilità” (p. 14). Di conseguenza, la frase “alta affidabilità” è venuto a significare che alto rischio e alta efficacia possono coesistere, per le organizzazioni che devono eseguire bene in condizioni molto difficili, e che ci vuole uno sforzo intenso per farlo.
Mentre le prime ricerche si concentravano sulle industrie ad alto rischio, molti altri hanno espresso interesse per le organizzazioni ad alta affidabilità e hanno cercato di emulare il loro successo. Un punto di svolta chiave è stata la riconcettualizzazione della letteratura sull’alta affidabilità da parte di Karl Weick, Kathleen M. Sutcliffe e David Obstfeld. Questi ricercatori hanno esaminato sistematicamente la letteratura del caso di studio su HROs e hanno illustrato come l’infrastruttura di alta affidabilità fosse fondata su processi di consapevolezza collettiva che sono indicati da una preoccupazione per il fallimento, riluttanza a semplificare le interpretazioni, sensibilità alle operazioni, impegno per la resilienza e deferenza alle competenze. In altre parole, gli HROS sono distintivi a causa dei loro sforzi per organizzarsi in modi che aumentano la qualità dell’attenzione in tutta l’organizzazione, migliorando così la vigilanza e la consapevolezza delle persone nei dettagli in modo che possano rilevare modi sottili in cui i contesti variano e richiedono una risposta contingente (cioè la consapevolezza collettiva). Questo costrutto è stato elaborato e raffinato come organizzazione consapevole nelle edizioni 2001 e 2007 di Weick e Sutcliffe del loro libro Managing the Unexpected. L’organizzazione consapevole costituisce una base per le persone di interagire continuamente mentre sviluppano, perfezionano e aggiornano una comprensione condivisa della situazione che affrontano e delle loro capacità di agire su tale comprensione. L’organizzazione consapevole attiva in modo proattivo azioni che prevengono e contengono errori e crisi e richiede ai leader e ai loro dipendenti di prestare molta attenzione a plasmare l’infrastruttura sociale e relazionale dell’organizzazione. Essi stabiliscono un insieme di processi e pratiche organizzative interconnesse, che contribuiscono congiuntamente al sistema (ad es., squadra, unità, organizzazione) cultura generale della sicurezza.