[Normal Accidents - Wikipedia](https://en.wikipedia.org/wiki/Normal_Accidents) ノーマル・アクシデント。高リスクの技術とともに生きる」は、1984年にイェール大学の社会学者チャールズ・ペローが出版した本で、複雑なシステムを社会学の観点から詳細に分析したものである。航空交通、海上交通、化学プラント、ダム、特に原子力発電所などの複雑な技術システムを、その危険度に応じて特徴づける枠組みを初めて提案した」ものであった。ペローは、社会の複雑で緊密に結合したシステムには、複数かつ予期せぬ故障が組み込まれていると主張する。このような事故は避けられないものであり、設計で回避することはできない[1]。 ペローの主張は、システム上の特徴とヒューマンエラーに基づき、大きな事故はエスカレートする傾向にあり、技術は問題ではなく、組織が問題であるというものである。これらの原則はそれぞれ現在でも通用するものである[1][2]。 ## System accidents 通常の」事故、すなわちシステム事故は、極めて複雑なシステムにおいてそのような事故が不可避であることから、ペローはこのように呼んでいる。システムの特性を考えれば、回避しようと努力しても、互いに影響し合う複数の故障が発生する。ペローは、オペレーターのミスは非常によくある問題だが、多くの失敗は技術よりもむしろ組織に関連しており、大きな事故はほとんどの場合、非常に小さな始まりであると述べている[3]。 このような出来事は、最初は些細に見えるが、予測できずにシステムを通じて連鎖し、重大な結果をもたらす大きな出来事となる[1]。 通常事故は、1980年代の安全とリスクの概念を一変させる一連の知的発展に重要な概念を提供した。それは、技術的な失敗を高度に相互作用するシステムの産物として検討することを主張し、失敗の主な原因として組織と管理の要因に焦点を当てたものであった。技術的な災害は、もはや単独の機器の故障、オペレーターのミス、天災に起因するものではなくなったのである[4]。 ペローは、システムが通常事故の影響を受けやすい条件として、3つの条件を挙げている。これらは以下の通りである。 - The system is complex - The system is tightly coupled - The system has catastrophic potential