自動運転システムを搭載した車のブレーキが故障し、暴走状態になったとしましょう。前方の横断歩道では歩行者が横断中であり、それに突入するのを避けるためにハンドルを左に切れば歩道に乗り上げることになり、そこにもやはり歩行者が、右に切れば対向車との正面衝突が避けられない、というような場面が考えられます。この場合、自動運転システムはどのようなハンドル捌きを行うべきでしょうか?正にトロッコ問題であり、事故が招く経済的・社会的影響は非常に重く、単に道徳的・倫理的な側面だけでは片付かず、より複雑な問題となり得るのではないでしょうか。
この種の問題に対する判断が複雑になるのは、一人一人の人間がどのような立場でこの問題を考えるかによって判断が変わりうることにあります。自分自身が当事者(車の所有者、あるいは搭乗者)である場合、あるいは全く第三者的立場である場合、さらには被害者になりうる人々の社会的地位や年齢なども判断に影響する可能性があるからです。
自動運転車に搭載する人工知能システムは、上記のような場面においても人間の視点に立ち、道徳的にも倫理的にも許容できる範疇での決定を行うものが望まれます。MITのMedia Laboratoriesの研究チームは、自動運転車に搭載する人工知能システムの設計に資するべく、トロッコ問題に相当する問題への人間の判断を大量に収集するためのプラットフォームをオンライン上に公開しています。それはMoral Machine と名付けられています。そのサイトは次のようです。
https://www.media.mit.edu/projects/moral-machine/overview/
自動走行車がおちいる可能性のあるシチュエーションに対し、自動運転システムはどう対応すべきか、人々に第三者的な立場での対応を聞くものです。
ここには色々なケースが用意されていますが、一例を図に示します。車はブレーキが故障したまま暴走しており、事故は避けられない設定です。車をそのまま直進させるか、ハンドルを切って隣車線に移るか、のいずれを選択すべきかが問題です。歩道手前に障害物がある場合には、それとの衝突によって搭乗者に死者や怪我人が出ることに、それを避けるために隣車線に移れば歩道を渡りつつある歩行者を跳ねてしまうことになります。直進方向には歩行者が、隣車線には障害物がある、という逆の場合も含まれています。
搭乗者や歩行者としては、経営者や医師など一般的に社会的地位が高いと看做されている人々、子供や年寄りなどの社会的弱者、これらの性別の違いも考慮の対象となっています。犯罪者やホームレス、妊婦、ペットなども含まれ、実に多様な組み合わせの搭乗者や歩行者が用意されているわけです。また、歩行者が青信号の下で合法的に渡っている場合と法律を犯し赤信号の下で渡っている場合も含まれています。前回のトロッコ問題と比べて極めて複雑なファクターを含んだ設定になっているところが大きな違いでしょう。
MITの研究グループはどのような判断を行うシステムが許容されるのか、に関してWeb上で集められた結果を分析して研究に活かそうとしています。このサイトの当面の目的は意思決定がもたらすモラル上の問題に関する議論の可視化や活性化を狙ったものと言えるでしょう。
Moral Machine のサイトで提示される問題に自分の判断を入力していくと、これまでに集められたデータと比較され、自分自身の判断が広い範囲で分布している中でどの位置にあるかを判断指標ごとに知ることもできます。人々の判断は間違いなく広い範囲に分布しているようです。
トロッコ問題に対する自動運転システムの設計基準は車メーカーごとに異なるものになるのでしょうか、それとも統一されるのでしょうか。日常生活における倫理基準は世界共通である、とは言い難いところがありますから、同じメーカーの車であっても国ごとに異なる自動運転システムが搭載される、ということも考えられます。トロッコ問題にどう対処すべきなのか、未だその答えを見通せる段階には至っておりません。