ヒューマン・ファクター
2002.5.31
人間ー機械系
• 機械設計時には「いかなる状態において」
「どのように」「どのようなレベルの人間が」
使用するかをよく考えねばならない
• ミスをしても安全が確保される:フール・プ
ルーフ、エラー・レジスタント、エラー・トレラ
ント
• 機械が故障しても安全性を阻害しない:
フェール・セーフ
自動化
• 人間は何もしなくなる(作業者が単調や退
屈に陥る、意識水準が低下する)
• 過剰な信頼感や依存性
• 安易な気持ちで操作したスイッチにより重
大な事故に至った臨場感の欠如
• 緊急時における熟練度の低下
• 『「信じられないミス」はなぜ起こる』黒田勲 中災
防新書
飛行システムと人間の対立
• どのようにシステムを設計するか
• ただ、戦闘機はコンピュータなしには動か
ない
航空機の歴史
• 1903年12月17日
• ライト兄弟がライト・フライヤー1号で人類
初の動力飛行を実施
• 時速16㎞、距離37㍍、飛行時間12秒、高
度3㍍
• 1910年日本での初飛行 代々木練兵場
• 高度70㍍、飛行距離3,000㍍、飛行時間3
分
危険な11分間
• 離陸・上昇時の3分間と、初期進入より着陸まで
の8分間:
• この間に70%以上の事故が発生
• 離着陸時:短時間の間に多量の情報処理をする
必要のある忙しいフェーズで、判断や操作の間
違い、定められた手順からの逸脱がある
• 降下から着陸:空間の位置づけが重要なフェー
ズで、思考や判断を必要とする航法ミスがある
航空事故
•
•
•
•
年間死亡率:
航空事故:1千万人当たり4.4
自動車運転中の事故:十万人当たり5.1
1975年以来、航空事故の主因の大半が
ヒューマン・ファクターに起因する
ヒヤリ・ハットの報告システム
• 米国「エビエーション・セイフティ・リポーティ
ング・システムASRS」(米国航空宇宙局)
• 航空に関するあらゆる分野からの報告を
受ける
• 報告者は匿名
• 罰則の対象とならないように、免責担保が
なされている)
ヒューマン・エラーの上流
•
•
•
•
•
•
貧弱な作業環境
不適切な装置や道具
厳しい労働負荷
不十分な訓練
組織の安全管理体制・体質
装置設計の不備
コクピットの自動化
• 利点:
• 事故率低下
• 燃料消費効率や運行効率を考慮した飛行
計画
• 視界不良時の安全な着陸
• 乗客の快適性の向上
コクピットの自動化(続き)
• かつては人間は航空機を制御していた
• その作業を自動システムが取って代わった
• パイロットはシステムを管理することになった(状
況をモニタし、適切な指示を与える)
• アブノーマルが発生した場合、ワークロードが劇
的に増加する
• パイロットが航空機の状況を適切に認識できなく
なり、適切な対処ができなくなる
人間行動の5原則
• 1.人間は流れに従って行動する
• 2.つぎの行動の予測に情報を必要とする
• 3.ワークロードを増加させて困難な仕事
に対応するが、それには限界がある
• 4.システムの情緒的雰囲気により作業精
度が異なる
• 5.置かれた環境の危険を、その中で評価
できない(おか目八目)
重大事故
• スリーマイル島原発:制御室の設計不良、
運転員の判断ミス、メンテナンス不良
• ボパール:作業者の知識と技能の不足、
勤務態度の怠慢
• 信楽高原鉄道:安全装置の欠陥、異常時
対応の規則違反、安全投資の削減
• ニュートラム暴走:無人運転システムの在
り方、新技術や高度技術の導入法
中華航空機
• ★人間と機械(自動操縦装置)との不整合
• 誤ったレバー操作
• 「着陸やり直しモード」での自動操縦装置
使用
• わかりにくい操縦手引き書
• 自動失速防止装置による機首上げ
日本の原子力施設
• 昭和41年から平成10年度までに通産省に
報告されたトラブル事例のうち、ヒューマン
エラーが直接の原因とされたものは、200
件、全体の20%
• 保守作業(ボルトの締め付け不良等)60%
• 運転(操作手順の間違い)15%
• ★手順書、管理手法の改善がエラー低減
に有効
ダウンロード

ヒューマン・ファクター