La théorie HRO est issue de la Théorie normale des accidents, ce qui a conduit un groupe de chercheurs de l’Université de Californie à Berkeley (Todd LaPorte, Gene Rochlin et Karlene Roberts) à étudier comment les organisations travaillant avec des systèmes complexes et dangereux fonctionnaient sans erreur. Ils ont fait des recherches sur trois organisations: les porte-avions nucléaires américains (en partenariat avec le contre-amiral (ret.) Tom Mercer sur l’USS Carl Vinson), le système de contrôle du trafic aérien de la Federal Aviation Administration (et de l’aviation commerciale en général), et les opérations nucléaires (réacteur Diablo Canyon de Pacific Gas and Electric).
Le résultat de ce travail initial a été les caractéristiques déterminantes de la tenue en commun des BRH:
- Hypercomplexité – variété extrême de composants, de systèmes et de niveaux.
- Couplage serré – interdépendance réciproque entre de nombreuses unités et niveaux.
- Différenciation hiérarchique extrême – niveaux multiples, chacun avec ses propres mécanismes de contrôle et de régulation élaborés.
- Un grand nombre de décideurs dans des réseaux de communication complexes – caractérisés par une redondance dans les systèmes de contrôle et d’information.
- Degré de responsabilité qui n’existe pas dans la plupart des organisations – un rendement inférieur aux normes ou des écarts par rapport aux procédures standard entraînent de graves conséquences négatives.
- Haute fréquence de rétroaction immédiate sur les décisions.
- Facteurs de temps compressés – les cycles des activités principales sont mesurés en secondes.
- Plus d’un résultat critique qui doit se produire simultanément – la simultanéité signifie à la fois la complexité des opérations et l’incapacité de retirer ou de modifier les décisions opérationnelles.
Il est important de noter que de nombreuses organisations affichent certaines de ces caractéristiques, mais les HR les affichent toutes simultanément.
Les théoriciens de l’accident normal et du HRO ont convenu que la complexité interactive et le couplage serré peuvent, théoriquement, conduire à un accident du système. Cependant, ils ont des opinions différentes sur la question de savoir si ces accidents du système sont inévitables ou gérables. Les accidents graves dans des opérations dangereuses à haut risque peuvent être évités grâce à une combinaison de conception organisationnelle, de culture, de gestion et de choix humain. Les théoriciens des deux écoles mettent beaucoup l’accent sur l’interaction humaine avec le système en tant que cause (NAT) ou prévention (HRO) d’un accident de système. La théorie de l’organisation à haute fiabilité et les HRO sont souvent comparées à la Théorie normale des accidents (NAT) de Charles Perrow (voir Sagan pour une comparaison des HRO et des NAT). NAT représente la tentative de Perrow de traduire sa compréhension de la catastrophe de la centrale nucléaire de Three Mile Island en une formulation plus générale des accidents et des catastrophes. Le livre de Perrow de 1984 comprenait également des chapitres sur les usines pétrochimiques, les accidents d’aviation, les accidents navals, les accidents du « système terrestre » (ruptures de barrages, tremblements de terre) et les accidents « exotiques » (génie génétique, opérations militaires et vol spatial). À Three Mile Island, la technologie était étroitement couplée en raison de processus dépendants du temps, de séquences invariantes et d’un relâchement limité. Les événements qui se sont propagés grâce à cette technologie étaient des concaténations invisibles impossibles à anticiper et en cascade de manière interactive et complexe. Perrow a émis l’hypothèse que, indépendamment de l’efficacité de la gestion et des opérations, les accidents dans des systèmes caractérisés par un couplage serré et une complexité interactive seront normaux ou inévitables car ils ne peuvent souvent pas être prévus ou évités. Ce point de vue pessimiste, décrit par certains théoriciens comme un déterminisme technologique sans vergogne, contraste avec le point de vue plus optimiste des partisans de HRO, qui ont soutenu que les organisations à haut risque et à haut risque peuvent fonctionner en toute sécurité malgré les dangers des systèmes complexes. Malgré leurs différences, la théorie de la NAT et de l’organisation à haute fiabilité partagent un accent sur les fondements sociaux et organisationnels de la sécurité des systèmes et de la causalité / prévention des accidents.Au fur et à mesure que la recherche se poursuivait, un ensemble de connaissances a émergé sur la base de l’étude d’une variété d’organisations. Par exemple, le système de commandement des incidents d’incendie, l’unité de soins intensifs pédiatriques de l’Hôpital Loma Linda et l’Opérateur de système indépendant de Californie ont tous été étudiés comme exemples d’OSH.
Bien qu’elles puissent sembler diverses, ces organisations présentent un certain nombre de similitudes. Premièrement, ils opèrent dans des environnements sociaux et politiques impitoyables. Deuxièmement, leurs technologies sont risquées et présentent un risque d’erreur. Troisièmement, la gravité et l’ampleur des conséquences possibles des erreurs ou des erreurs empêchent l’apprentissage par l’expérimentation. Enfin, ces organisations utilisent toutes des processus complexes pour gérer des technologies et des travaux complexes afin d’éviter les échecs. Les HR partagent de nombreuses propriétés avec d’autres organisations hautement performantes, notamment du personnel hautement qualifié, une formation continue, des systèmes de récompense efficaces, des audits de processus fréquents et des efforts d’amélioration continue. Pourtant, d’autres propriétés telles qu’un sentiment de vulnérabilité à l’échelle de l’organisation, un sens largement répandu de la responsabilité et de la responsabilité en matière de fiabilité, une préoccupation généralisée concernant les perceptions erronées, les idées fausses et les malentendus généralisés à un large ensemble de tâches, d’opérations et d’hypothèses, le pessimisme quant aux défaillances possibles, la redondance et une variété de vérifications et de contre-vérifications par précaution contre les erreurs potentielles sont plus distinctives.
Définir une fiabilité élevée et spécifier ce qui constitue une organisation à haute fiabilité a présenté certains défis. Roberts a initialement proposé que les organisations à haute fiabilité soient un sous-ensemble d’organisations dangereuses qui ont joui d’un record de sécurité élevée sur de longues périodes. Plus précisément, elle a fait valoir que: « On peut identifier ce sous-ensemble en répondant à la question », combien de fois cette organisation a-t-elle pu échouer entraînant des conséquences catastrophiques qu’elle n’a pas eues? »Si la réponse est de l’ordre de dizaines de milliers de fois, l’organisation est « haute fiabilité » » (p. 160). Des définitions plus récentes se sont fondées sur ce point de départ, mais ont mis l’accent sur la nature dynamique de la production de fiabilité (c.-à-d., cherchant constamment à améliorer la fiabilité et intervenant à la fois pour prévenir les erreurs et les défaillances et pour faire face et récupérer rapidement si des erreurs se manifestent). Certains chercheurs considèrent les HRO comme une recherche de fiabilité plutôt qu’une atteinte à la fiabilité. Les organisations à la recherche de fiabilité ne se distinguent pas par leurs erreurs absolues ou leur taux d’accidents, mais plutôt par leur » gestion efficace de technologies innées à risque grâce à un contrôle organisationnel des risques et des probabilités » (p. 14). Par conséquent, l’expression « fiabilité élevée » en est venue à signifier qu’un risque élevé et une efficacité élevée peuvent coexister, pour des organisations qui doivent bien performer dans des conditions très difficiles, et qu’il faut des efforts intensifs pour le faire.
Alors que les premières recherches se concentraient sur les industries à haut risque, de nombreux autres ont exprimé leur intérêt pour les organisations à haute fiabilité et ont cherché à imiter leur succès. Un tournant clé a été la reconceptualisation de la littérature sur la haute fiabilité par Karl Weick, Kathleen M. Sutcliffe et David Obstfeld. Ces chercheurs ont systématiquement examiné la littérature d’études de cas sur les OSH et ont illustré comment l’infrastructure de haute fiabilité était fondée sur des processus de pleine conscience collective qui sont indiqués par une préoccupation d’échec, une réticence à simplifier les interprétations, une sensibilité aux opérations, un engagement envers la résilience et une déférence envers l’expertise. En d’autres termes, les ORH se distinguent par leurs efforts pour s’organiser de manière à augmenter la qualité de l’attention dans l’ensemble de l’organisation, améliorant ainsi la vigilance et la sensibilisation des gens aux détails afin qu’ils puissent détecter des façons subtiles dont les contextes varient et appellent une réponse contingente (c.-à-d., pleine conscience collective). Cette construction a été élaborée et affinée en tant qu’organisation consciente dans les éditions 2001 et 2007 de leur livre Managing the Unexpected de Weick et Sutcliffe. L’organisation consciente constitue une base pour que les individus interagissent continuellement à mesure qu’ils développent, affinent et mettent à jour une compréhension commune de la situation à laquelle ils sont confrontés et de leurs capacités à agir sur cette compréhension. L’organisation consciente déclenche de manière proactive des actions qui préviennent et contiennent les erreurs et les crises et oblige les dirigeants et leurs employés à porter une attention particulière à la formation de l’infrastructure sociale et relationnelle de l’organisation. Ils établissent un ensemble de processus et de pratiques d’organisation interdépendants, qui contribuent conjointement aux activités du système (p. ex., équipe, unité, organisation) culture générale de la sécurité.