焦点:高まる自動操縦への依存、アシアナ機事故で見えた皮肉

http://headlines.yahoo.co.jp/hl?a=20130717-00000034-reut-kr

今回の事故では滑走路進入時に機体後部が防波堤に衝突したが、直前の飛行速度が目標値を著しく下回っていたことが分かっている。事故機のパイロットは着陸の中止を試みたが間に合わず、オートスロットル(自動速度維持装置)は目標速度に設定していたと説明している。

アシアナ機の事故は、大型航空機で高まる自動操縦への依存が、パイロットのマニュアル飛行能力や不測の事態への対応力を衰えさせた可能性をあらためて問う格好となった。

ある韓国の航空当局者は、元空軍パイロットが多い同国航空業界では、以前はマニュアルでの飛行が一般的だったと明かす。しかし1997年にグアムで大韓航空機が墜落して以降、安全面を改善するため、パイロットらは自動操縦の使用を勧められるようになった。NTSBの元調査官グレッグ・フェイス氏は、「航空会社はパイロットの訓練プログラムを見直し、マニュアル飛行の訓練を強化すべきだ」と指摘している。

1994年に、名古屋空港で着陸に失敗した中華航空機事故では、自動操縦下の誤操作の後、手動操縦に切り替えた際、自動操縦と手動操縦が矛盾する状態になってしまい(自動操縦が解除されなかったことでパイロットの意に反する状態に陥って)失速、墜落炎上するという大惨事になったことが後の調査で判明していますが、自動操縦の「自動性」が、ヒューマンエラーの防止だけでなく、過度依存による緊急事態の際の対応の遅れやコントロール不能につながりかねない大きなリスク、ということを考えさせられます。
これは、最近では自動車にも言えることで、障害物を感知しての自動停止装置が誤作動して急停車し追突事故が発生したというリコール事例が報道されていましたが、こういう自動停止装置ならないほうがましだと考える人は、私も含め少なくないでしょう。
下のエントリーでコメントした、検索関連ワードの表示も、ロボットによる機械的表示が悪用や権利侵害につながることもあるという意味で、過度の「自動性」が弊害を生む悪例という見方もできます。
どこまで自動化し、どこを人の手に委ねるのか、なかなか難しい問題ですが、航空機の場合、その辺のさじ加減の失敗が大事故、多数の死傷者につながるだけに、今後、速やかに、かつ確実に、改善すべき点が改善される必要があると思います。アシアナ航空機事故がそのための貴重な教訓となることを望みたいものです。