自動運転車が“現実的な”道徳観を身につけるためには「トロッコ問題」を回避する必要がある

masapoco
投稿日 2023年12月2日 15:40
auto pilot vehicle

ノースカロライナ州立大学の研究者らは、自動運転車が「良い」決定を下す方法を訓練するためのデータを収集する目的で、人々が自動車の運転に関連する道徳的、非道徳的な決断を下すために物事をどのようにとらえているかをよりよく理解するための新しい実験を開発した。これは、いわゆる「トロッコ問題」に触発された広く議論されている生死に関わる極端なシナリオよりも、交通におけるより現実的な道徳的課題の配列を捉えるように設計されている。

「トロッコ問題は、複数の人の死を避けるために、(道徳的規範に反する)1人の人を故意に殺すかどうかを誰かが決めなければならない状況を示しています。近年、トロッコ問題は、交通における道徳的判断を研究するためのパラダイムとして利用されています。典型的な状況は、自動運転車にとって、左にハンドルを切って致命的な障害物にぶつかるか、前進して横断中の歩行者にぶつかるかの二者択一です。しかし、このようなトロッコのようなケースは非現実的です。ドライバーは日々、もっと現実的な道徳的判断を迫られている。制限速度を超えて走るべきか?赤信号を無視すべきか?救急車を呼ぶために車を止めるべきか?」と、この問題に関する論文の筆頭著者であり、ノースカロライナ州立大学の博士研究員であるDario Cecchini氏は言う。

「これらの日常的な決定は重要です。なぜなら、それらは最終的に生死に関わる状況につながる可能性があるからです。例えば、誰かが制限速度を20マイル超過して運転していて、赤信号にぶつかったとする。現在のところ、日常的な状況でドライバーが下す判断について、私たちがどのように道徳的判断を下しているかについてのデータは、文献上ほとんどないのです」と、NC州立大学の科学、技術、社会プログラムの准教授であり、論文の共著者であるVeljko Dubljević氏は述べている。

このデータ不足に対処するために、研究者たちは、人々が低リスクの交通状況でどのように道徳的判断を下すかについてのデータを収集するために設計された一連の実験を開発した。研究者たちは、子供を時間通りに学校に連れて行くために交通信号を無視するかどうかを決定しなければならない状況にある親など、7つの異なる運転シナリオを作成した。

各シナリオは仮想現実環境にプログラムされているため、実験に参加する研究参加者は、ドライバーが決定を下すときに何をしているかについての視聴覚情報を持っている。これは、単にシナリオについて読むのではなく、実際に体験することを意味する。

この作業では、研究者たちはエージェント・ディード・コンシーケンス(ADC)モデルと呼ばれるものに基づいている。これは、人々が道徳的判断を下すときに3つのことを考慮するというものだ。エージェント:つまり何かをしている人の性格や意図。ディード:つまり何が行われているか、そしてコンシーケンス:つまりディードの結果として生じた結果だ。

研究者たちは、エージェント、ディード、コンシーケンスの組み合わせを変えて、各交通シナリオの8つの異なるバージョンを作成した。たとえば、子供を学校に連れて行くシナリオの1つのバージョンでは、親は思いやりがあり、黄色信号でブレーキをかけ、子供を時間通りに学校に連れて行く。

2つ目のバージョンでは、親は虐待的で、赤信号を無視し、事故を引き起こす。他の6つのバージョンは、親(エージェント)の性質、交通信号での決定(ディード)、および/またはその決定の結果(コンシーケンス)を変更する。

「ここでの目標は、研究参加者に各シナリオの1つのバージョンを見てもらい、各シナリオでのドライバーの行動がどれだけ道徳的であったかを1から10のスケールで判断してもらうことです。これにより、車両の運転に関連する道徳的行動について私たちが考えることに関する堅牢なデータが得られ、それを使用して自動運転車の道徳的意思決定のためのAIアルゴリズムを開発することができます」と、Cecchini氏は説明する。

研究者たちは、シナリオが信じられ、容易に理解できる状況を反映していることを確認するために、パイロットテストを行ってきた。

「次のステップは、大規模なデータ収集に取り組むことです。何千人もの人々が実験に参加するようにします。その後、そのデータを使用して、道徳的意思決定に関する理解をさらに洗練するためのよりインタラクティブな実験を開発することができます。これらすべては、自動運転車で使用するためのアルゴリズムを作成するために使用することができます。その後、それらのアルゴリズムがどのように機能するかを確認するために、追加のテストを行う必要があります」と、Dubljević氏は述べている。


論文

参考文献

研究の要旨

自律走行車の配備が間近に迫っており、関連する交通状況において道徳的判断を下せるアルゴリズムが必要とされている。自律走行車の倫理を研究する学者の中には、このような知的システムを人間の道徳的判断と一致させたいと考えている者もいる。この目的のために、Moral Machine Experimentのような研究が、トロッコのような交通ジレンマにおける人間の意思決定に関するデータを収集している。本稿ではまず、トロッコのジレンマは交通道徳的判断を調査するには不適切な実験パラダイムであると主張する。なぜなら、トロッコのジレンマにはエージェントの性格に基づく考察が含まれておらず、また、リスクの低いありふれた交通シナリオを調査することができないからである。本稿では、トロッコ・パラダイムの限界を考慮し、これらの問題を解決する代替的な実験的枠組みを提示する。提案する解決策は、仮想現実を利用したありふれた交通道徳シナリオの作成と、道徳心理学的枠組みとしての道徳判断のADC(Agent-Deed-Consequences)モデルを組み合わせたものである。このパラダイムシフトは、より現実的なものを提供し、交通行為に人格的配慮を組み込むことで、将来の研究の生態学的妥当性を高める可能性がある。



この記事が面白かったら是非シェアをお願いします!


  • sam altman
    次の記事

    OpenAIの騒動は、AI開発者が自らを規制できるかどうかを議論しなければならないことを示している

    2023年12月2日 16:30
  • 前の記事

    CNBCがAppleシリコンの開発部隊に迫る

    2023年12月2日 14:18
    06445a9eeeb2cffcbcb358f784849b51

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です


今読まれている記事