- 週間ランキング
制御不能になったトロッコが線路の上を走っている。
このままでは前方の5人の作業員がひき殺される。
あなたの近くには進行方向を切り替えるレバーがあるが、レバーを切り替えると、その先の線路にいる1人の作業員をひいてしまう。
あなたはレバーを切り替えるか?
もしレバーを引けば5人の命を救うことは出来ますが、あなたには自分の手で1人を殺したという責任がのしかかることになります。
もちろんこれは事故なのだから、何もせずに見過ごしたとしてもあなたに責任は無いはずです。しかしレバーを引かなかった場合、あなたは救える5人の命を見捨てたという後悔に苛まれるかもしれません。
トロッコ問題に関しては、線路に石を置いて電車を脱線されば全員救えるとか、頓知の問題にしてしまう人を多く見かけますが、これはトロッコを止めるための頓知をしているわけではありません。
「5人を助けるために1人を殺してもよいのか」という人間の道徳観を調べています。正解があるわけではなく、こういう状況に対してどういう判断を下す人が多いかを見ることがトロッコ問題の目的です。
そのため何かしら理由をつけてトロッコ問題の回答自体を拒否する人が多いという事実は、犠牲と責任が伴う局面で人間が自分の意志で判断を下すことがいかに難しいかを示していると言えるでしょう。
このトロッコ問題には、犠牲者の条件を変えたさまざまな亜種の思考実験も存在します。
その中には、人数を比較する以外の要素が含まれます。例えば次のような問題があります。
男性と女性のどちらをトロッコでひくか
イヌと人間のどちらをトロッコでひくか
子供と高齢者のどちらをトロッコでひくか
大切な友人と見知らぬ人のどちらをトロッコでひくか
また、トロッコではなく、回答者を車のドライバーと想定し、衝突が避けられない状況で2択を選択させる問題もあります。
急に飛び出した歩行者に突っ込むか、ハンドルを切って交通ルールを守っている歩行者に突っ込むか
歩行者に突っ込むか、それともハンドルを切って対向車に突っ込むか
さきほども言った通り、このようなトロッコ問題には「正解」は存在しません。
トロッコ問題とは、「回答者の道徳観の傾向を明らかにする」ためのものであり、決して「命を効率的に救うための問題」でも「どちらかの選択の正当性を評価する問題」でもないのです。
実際、トロッコ問題で人々がどのような判断を下すかは、育った国・文化・宗教によって、大きく異なります。
とはいえ、トロッコ問題が「人間の判断の傾向を明らかにするもの」であることには変わりありません。
一方、現実世界のドライバーたちの判断にも、特定の傾向があるはずです。
そのためトロッコ問題は、人間レベルの自動運転システムの開発を目指すうえで、「AIの判断基準をどのように設計するか」という問題と関連しているように思えます。
チェッキーニ氏も、「近年、トロッコ問題は交通における道徳的判断を研究するためのパラダイム(典型的な例、モデル)として利用されています」と述べました。
では、AI(自動運転システム)の判断能力を向上させるために、トロッコ問題が本当に役立つのでしょうか。
AIに人間のドライバーのような判断能力を持たせるためには、膨大なデータを与えてトレーニングする必要があります。
では、多くの人にトロッコ問題を行わせて、その判断結果を用いてAIをトレーニングするなら、AIの判断能力は向上するのでしょうか?
チェッキーニ氏ら研究チームは、「そうはならない」と主張しています。
なぜなら、トロッコ問題の結果は、人々の差別的な考えを反映している可能性があるからです。
例えば、ある種のトロッコ問題では「男か女か」「子供か高齢者か」を必ず選ばなければいけません。
これらの結果の傾向は時代や地域で異なります。
そして実験を行った時代特有の、もしくは地域特有の偏見や差別的な考えを排除しきれないのです。
また、トロッコ問題を用いるべきでない別の理由として、トロッコ問題には「生態学的妥当性」が欠如しているという点が挙げられるようです。
生態学的妥当性とは、限定的な条件で行われた研究結果が、現実の幅広い局面でどの程度通用するかを示すものです。
これについて考えた場合、トロッコ問題のような限定的な条件は現実ではほとんど生じないため、実践的なデータとしては利用できずAIのトレーニングに向かないというのです。
確かに、「ドライバーが死ぬか、歩行者が死ぬか」「大人をひくか、子供をひくか」といった絶対的な2択が生じる状況など、めったにありません。
そのため、ほとんどの回答者は、問題に回答しようと悩んでいる時でさえ、人の命が本当に失われるかのような深刻な気持ちにはなりません。
むしろ、トロッコ問題をゲームのような感覚で「楽しみながら」回答する人の方が多いでしょう。
当然、それらの結果を集めて、AI(自動運転システム)をトレーニングしたとしても、人間の道徳的な判断が反映されることはないのです。
研究チームはこうした考えから、AIをトレーニングする際に、あえてトロッコ問題を排除しました。
そして彼らは、ドライバーが日々直面している、より現実的な判断に注目しました。
研究チームが注目したより現実的な判断とは、「多少なら制限速度を超えても良いのか?」「黄信号で止まらなくても良いのか?」「救急車が近づいているので邪魔しないよう車を止めるべきか?」などです。
ドライバーは毎日こうした判断を下しており、遅刻しそうな時には道徳観が大いに試されます。
そして、このような日常的な判断の積み重ねが、最終的には、ドライバーや歩行者の命にかかわってくるのです。
研究チームによると、AIのトレーニングに大切なのは、トロッコ問題よりも、これらの要素を扱った道徳問題だというのです。
そして彼らは実際に、トレーニングに役立つ現実的な「交通問題」を開発しました。
この問題は複数の事例で構成されています。
例えば1つ目の事例は「親には思いやりがあり、黄色信号でブレーキを踏み、子供を時間通りに学校に送り届ける」というもの。
また別の事例は、「親は虐待的であり、赤信号を無視して、交通事故を起こす」というものです。
他にもいくつかの事例が存在し、それぞれ親の性質や、信号での判断、結果が変わっています。
そして回答者には、1つの事例を見た後に、ドライバーの行動がどの程度道徳的であったかを10段階で評価してもらうのです。
研究チームは、この交通問題で得られたデータこそが、AI(自動運転システム)に、より道徳的な判断を与えると考えています。
また彼らは次のステップとして、「大規模なデータ収集に取り組み、何千人もの人々に実験に参加してもらう」ことを目標にしています。
もちろん、人間レベルの判断力を備えた自動運転車が開発されるのは、まだまだ先のことでしょう。
それでも、その「理想的な判断」に近づくのに、有名なトロッコ問題は必要ないのかもしれません。
参考文献
To Help Autonomous Vehicles Make Moral Decisions, Researchers Ditch the ‘Trolley Problem’
https://news.ncsu.edu/2023/12/ditching-the-trolley-problem/
The “Trolley Problem” Doesn’t Work for Self-Driving Cars The most famous thought experiment in ethics needs a rethink
https://spectrum.ieee.org/av-trolley-problem
元論文
Moral judgment in realistic traffic scenarios: moving beyond the trolley paradigm for ethics of autonomous vehicles
https://link.springer.com/article/10.1007/s00146-023-01813-y#Fig2
ライター
大倉康弘: 得意なジャンルはテクノロジー系。機械構造・生物構造・社会構造など構造を把握するのが好き。科学的で不思議なおもちゃにも目がない。趣味は読書で、読み始めたら朝になってるタイプ。
編集者
海沼 賢: 以前はKAIN名義で記事投稿をしていましたが、現在はナゾロジーのディレクションを担当。大学では電気電子工学、大学院では知識科学を専攻。科学進歩と共に分断されがちな分野間交流の場、一般の人々が科学知識とふれあう場の創出を目指しています。