過失は誰にあるのか
もう少し詳しく書こう。ゴーアラウンド(着陸復航)モードがオンになった機体は機首を上げようと水平尾翼を下に向けた。これで機首が上がる。しかし機長が水平尾翼を上げようとする(機首が下がる)ので自動操縦は水平尾翼を極限まで下に向けた。機長はボーイング社の航空機の操縦経験から操縦桿を動かしたのだから自動操縦は解除されているはずと思いこんでいた。結果としてはゴーアラウンドモードを阻害する操縦を機長が行っていた。
誰の目線で見るかによって原因は違って見える。そのご裁判になって裁判所の判決により地裁レベルで中華航空が賠償金を払って裁判は終わっているが、人間の指示に従わなかったエアバスのA300-600はその後ボーイングと同様に操縦桿を動かすと自動制御が切れる方式に改められた。
人間の言うこと(意志)に逆らったエアバス機はアシモフ博士の提唱するロボット憲章の「ロボットは人間を傷つけないこと」に反しているのではないだろうか。いやいや、人間が機械の操作を誤っただけだ、との意見もあるだろう。しかし、結果として人間を傷つけたのはロボットのほうでは無いのか。16年も前の事故だが、ロボットが人間を傷つけることは当時からあったのだ。
ただし、故意か過失かを問わず、明らかに人間が機械を使って人間を傷つける例は多い。刀、槍のたぐいから大砲、銃に至るまで人間は機械を使う動物だから必然的に「武器」の概念が生まれてくる。
しかし、ここにコンピュータが入り込んで来ると事情は一転する。機械が生み出す結果を使っている人間が予想できないことが起きてくる。例えば自動車を運転する者は始業点検を行ってから自動車を運転することになっている。ヘッドライトは切れてないか、ワイパーは確実に動くか等である。しかし、今は自動制御でヘッドライトは暗くなれば勝手に点灯するしワイパーは雨を関知して動く。始業前点検は事実上できないのだ。それでもヘッドライトの電球切れはドライバーに責任があるだろうか?
ブレーキが利く仕組みは運転手には解らない
アメリカのロヨタ車問題の争点に電子制御スロットルシステム(ETCS)の欠陥問題がある。トヨタは認めていないが運転中にエンジンコントロールが利かなくなりアクセルを離しても時速160km(100マイルってことか)で走り続けたとのことだ。このあたりオートドライブの故障で解除ができない状況に見えるが。
エンジンが正しく動くかはエンジンを制御するソフトウェアに依存しており、ドライバーが自ら確認などできない構造になっている。
今回驚いたのブレーキも同じだ。ブレーキペダルを踏むと圧力センサーが踏む力に応じて油圧ブレーキのブレーキシューを駆動させる。ブレーキペダルと油圧ブレーキのシリンダーの間には制御するソフトウェアが存在し、ブレーキペダルを踏んだらブレーキが利くかどうかはこのソフトウェア次第なのだ。そんなもんをドライバーが始業点検できるだろうか。
神のみぞ知る偶然によってブレーキペダルを踏むとブレーキが利くのだ。
実は自動制御にはフィードバックって考え方があって、作動した状態は必ず作動させたものに情報を戻し的確な制御を行うシステムになっている。自動車のソフトウェアは自らを調べてフィードバックできてるのだろうか。始業点検ボタンを押したら全てのチェックを行い異常があれば人間に知らせてくれるシステムはあるのか。エアバックやオイル切れや燃料不足は知らせてくれる、テールランプやヘッドライト、はてはブレーキシステムに異常は無いか、エンジン制御は異常は無いか、これを調べて知らせるのがロボットの義務だろう。
幸い航空機は高価なので効率を重視する観点から自己チェック機能が備わっている。飛行中に目的空港にデータリンクで機器の不都合を自動送信する。目的の空港では航空機の着陸前に整備士が交換部品を持ってスポットに待機している。
どうもロボット憲章を守るためには自動車にはデバックモードを登載し、機器の始業前点検を手動か自動で行う機能を搭載する必要があるだろう。それが自動車の価格を高価にするってのなら、オートマやカーナビは禁止することだ。自動車のメカニカルな原理原則に則ったT型フォードみたいな自動車を作るべきだ。
アシモフ博士は今回のトヨタの一連の制御系の不都合をロボット憲章に盛り込んでいたのだろうか。