HRO teori strømmet ut Av Normal Ulykke Teori, noe som førte en gruppe forskere Ved University Of California, Berkeley (Todd LaPorte, Gene Rochlin, Og Karlene Roberts) for å studere hvordan organisasjoner som arbeider med komplekse og farlige systemer drives feilfri. De forsket tre organisasjoner: Usa kjernefysiske hangarskip (i samarbeid Med Kontreadmiral (ret. Tom Mercer på Uss Carl Vinson), Federal Aviation Administrations Flytrafikkontrollsystem (og kommersiell luftfart mer generelt), og kjernekraftoperasjoner (Pacific Gas og Electrics Diablo Canyon reaktor).
resultatet av dette innledende arbeidet var de definerende egenskapene Til HROs hold i felles:
- Hyperkompleksitet-ekstremt utvalg av komponenter, systemer og nivåer.
- Tett kobling-gjensidig gjensidig avhengighet på tvers av mange enheter og nivåer.
- Ekstrem hierarkisk differensiering-flere nivåer, hver med sine egne forseggjorte kontroll-og reguleringsmekanismer.
- Et Stort antall beslutningstakere i komplekse kommunikasjonsnettverk-preget av redundans i kontroll-og informasjonssystemer.
- grad av ansvarlighet som ikke eksisterer i de fleste organisasjoner-substandard ytelse eller avvik fra standard prosedyrer møte med alvorlige negative konsekvenser.
- Høy frekvens av umiddelbar tilbakemelding om beslutninger.
- Komprimerte tidsfaktorer-sykluser av større aktiviteter måles i sekunder.
- Mer enn ett kritisk utfall som må skje samtidig-simultanitet betyr både operasjonens kompleksitet og manglende evne til å trekke tilbake eller endre operasjonsbeslutninger.
det er viktig å merke seg at mange organisasjoner viser noen av disse egenskapene, Men HROs viser dem alle samtidig.
Normal Ulykke og HRO teoretikere enige om at interaktiv kompleksitet og tett kobling kan teoretisk føre til en systemulykke. Imidlertid har de forskjellige meninger om hvorvidt disse systemulykkene er uunngåelige eller er håndterbare. Alvorlige ulykker i høy risiko kan farlige operasjoner forebygges gjennom en kombinasjon av organisasjonsdesign, kultur, ledelse og menneskelige valg. Teoretikere fra begge skolene legger stor vekt på menneskelig interaksjon med systemet som enten årsak (NAT) eller forebygging (HRO) av en systemulykke. Høy pålitelighet organisasjonsteori og HROs er ofte kontrastert Mot Charles Perrows Normal Accident Theory(NAT) (Se Sagan for en sammenligning AV HRO og NAT). NAT representerer Perrows forsøk på å oversette sin forståelse av katastrofen Ved Three Mile Island kjernefysiske anlegg til en mer generell formulering av ulykker og katastrofer. Perrows bok fra 1984 inneholdt også kapitler om petrokjemiske anlegg, flyulykker, marineulykker, «jordbaserte system»-ulykker (dambrudd, jordskjelv) og «eksotiske» ulykker (genteknologi, militære operasjoner og romferd). På Three Mile Island var teknologien tett koblet på grunn av tidsavhengige prosesser, invariante sekvenser og begrenset slakk. Hendelsene som spredte seg gjennom denne teknologien var usynlige sammenkoblinger som var umulige å forutse og kaskade på en interaktivt kompleks måte. Perrow hypotese at uavhengig av effektiviteten av ledelse og drift, ulykker i systemer som er preget av tett kobling og interaktiv kompleksitet vil være normal eller uunngåelig som de ofte ikke kan forutses eller forebygges. Denne pessimistiske oppfatningen, beskrevet av noen teoretikere som unashamedly teknologisk deterministisk, står i kontrast til DET mer optimistiske synet PÅ HRO-talsmenn, som hevdet at høyrisikoorganisasjoner med høy risiko kan fungere trygt til tross for farene ved komplekse systemer. TIL tross for deres forskjeller deler NAT og høy pålitelighet organisasjonsteori et fokus på de sosiale og organisatoriske grunnlaget for systemsikkerhet og ulykkesårsak/forebygging. For eksempel ble fire incident command system, Loma Linda Hospital ‘ S Pediatric Intensive Care Unit og California Independent System Operator alle studert som eksempler på HROs.
selv om de kan virke forskjellige, har disse organisasjonene en rekke likheter. Først, de opererer i uforsonlige sosiale og politiske miljøer. For det andre er deres teknologier risikable og presenterer potensialet for feil. For det tredje utelukker alvorlighetsgraden og omfanget av mulige konsekvenser av feil eller feil læring gjennom eksperimentering. Til slutt bruker disse organisasjonene alle komplekse prosesser for å håndtere komplekse teknologier og komplekst arbeid for å unngå feil. HROs deler mange egenskaper med andre høypresterende organisasjoner, inkludert høyt utdannet personell, kontinuerlig opplæring, effektive belønningssystemer, hyppige prosessrevisjoner og kontinuerlig forbedringsarbeid. Likevel er andre egenskaper som en organisasjonsomfattende følelse av sårbarhet, en utbredt ansvarsfølelse og ansvarlighet for pålitelighet, utbredt bekymring for feiloppfatning, misforståelse og misforståelse som er generalisert over et bredt sett med oppgaver, operasjoner og antagelser, pessimisme om mulige feil, redundans og en rekke kontroller og motkontroller som en forholdsregel mot potensielle feil, mer særegne.
Å Definere høy pålitelighet og spesifisere hva som utgjør en organisasjon med høy pålitelighet har gitt noen utfordringer. Roberts opprinnelig foreslått at høy pålitelighet organisasjoner er en undergruppe av farlige organisasjoner som har hatt en rekord av høy sikkerhet over lange perioder av gangen. Spesielt hevdet hun at: «Man kan identifisere denne delmengden ved å svare på spørsmålet,» hvor mange ganger kunne denne organisasjonen ha mislyktes, noe som resulterte i katastrofale konsekvenser som den ikke gjorde?»Hvis svaret er i størrelsesorden titusenvis av ganger organisasjonen er «høy pålitelighet» «(s. 160). Nyere definisjoner har bygget på dette utgangspunktet, men understreket den dynamiske naturen til å produsere pålitelighet (dvs., stadig søker å forbedre påliteligheten og gripe inn både for å forhindre feil og feil og å takle og gjenopprette raskt hvis feil blir åpenbare). Noen forskere ser HROs som pålitelighetssøkende i stedet for pålitelighetsoppnåelse. Pålitelighetssøkende organisasjoner er ikke preget av deres absolutte feil eller ulykkesrate, men heller av deres «effektive styring av medfødt risikable teknologier gjennom organisatorisk kontroll av både fare og sannsynlighet»(s. 14). Følgelig har uttrykket «høy pålitelighet» kommet til å bety at høy risiko og høy effektivitet kan sameksistere, for organisasjoner som må fungere godt under svært vanskelige forhold, og at det krever intensiv innsats for å gjøre det.
mens den tidlige forskningen fokuserte på høyrisikoindustrier, uttrykte mange andre interesse for organisasjoner med høy pålitelighet og forsøkte å etterligne deres suksess. Et viktig vendepunkt var Karl Weick, Kathleen M. Sutcliffe, Og David Obstfelds rekonceptualisering av litteraturen om høy pålitelighet. Disse forskerne gjennomgikk systematisk case study-litteraturen om HROs og illustrerte hvordan infrastrukturen med høy pålitelighet var jordet i prosesser med kollektiv oppmerksomhet som indikeres av en opptatthet av feil, motvilje mot å forenkle tolkninger, følsomhet for operasjoner, forpliktelse til motstandskraft og respekt for kompetanse. Med Andre ord er HROs særegne på grunn av deres innsats for å organisere på måter som øker kvaliteten på oppmerksomheten på tvers av organisasjonen, og dermed øker folks våkenhet og bevissthet til detaljer slik at de kan oppdage subtile måter i hvilke sammenhenger varierer og krever kontingent respons (dvs.kollektiv oppmerksomhet). Denne konstruksjonen ble utarbeidet og raffinert som oppmerksom organisering I Weick Og Sutcliffes 2001 og 2007 utgaver Av deres bok Managing The Unexpected. Mindful organisering danner grunnlag for enkeltpersoner å samhandle kontinuerlig når de utvikler, forfiner og oppdaterer en felles forståelse av situasjonen de står overfor og deres evner til å handle på den forståelsen. Bevisst organisering utløser proaktivt handlinger som hindrer og inneholder feil og kriser, og krever at ledere og deres ansatte legger stor vekt på å forme organisasjonens sosiale og relasjonelle infrastruktur. De etablerer et sett av sammenhengende organiseringsprosesser og praksis, som i fellesskap bidrar til systemets (f. eks., team, enhet, organisasjon) samlet sikkerhetskultur.