メインメニューをとばして、このページの本文エリアへ

機械に責任をもたせることができるか?

自動運転が突きつける倫理のジレンマ

下條信輔 認知神経科学者、カリフォルニア工科大学生物・生物工学部教授

 自動運転の車が街中(まちなか)を走り回る時代が、目前に近づいている。実際に各国で試験運転が行われているのはもとより、シンガポールではすでに自動運転のタクシーが公道で試運転しているという。そんな中、米国における自動運転車テスラの相次ぐ事故がニュースになった(「WIRED」7月14日;「現代ビジネス」7月17日;「carview!」7月20日など)。最新報道では「対策として、障害物などを検知する能力を高めた新たなソフトウェアを提供」とのことだ(朝日新聞デジタル、9月12日)。

 しかし「危険の(カメラ、レーダーによる)自動検出に不備があった」という点以外に、もっと本質的な問題が実は提起されている。それを詳述する前に、まずは「自動運転」について理解を深めよう。

すでに現実の問題

 20年後には4台に1台が自動運転車なるという予想がある。といってももちろん「自動運転」の定義による訳だ。自動運転は以下の4つのステージに大別できるという(土井美和子、原隆浩『 ICT未来予想図: 自動運転,知能化都市,ロボット実装に向けて (共立スマートセレクション) 』;NHKスペシャル「自動運転革命」9月17日放送、他)。

 まずハンドル/アクセル/ブレーキのいずれかを自動で操作する段階を「レベル1」とする(ちなみに自動ブレーキはすでに普及している)。次に、複数の操作を自動で行える(たとえばハンドルとアクセルを操作して車線変更できる)段階を「レベル2」とする。「レベル3」は、すべての操作を車が自動で行う。ただしドライバーは乗車していて、いざとなれば手動に切り替えられる場合を想定している。そして究極の「レベル4」はいうまでもなく、完全無人の自動運転だ。

 現在はレベル2〜3で世界の自動車メーカーが開発を競っている。グーグルなどIT系も参入して、技術戦略のせめぎ合いとなっている。たとえばグーグルは自動運転車を作って売るのではなく、ビッグデータを武器に自動運転のプロバイダーを目指している(NHK、前出)。つまり自動車会社のパートナーになって世界中の車に自社の自動運転装置ソフトを取り付け、走らせる。そこから「ただで」大量のデータを収集し、次につなげる。ビッグデータがビッグデータを呼び込む算段だ。

倫理のジレンマと「トロッコ問題」

 そんな中「サイエンス」誌に、「自動運転の倫理」をテーマとするタイムリーな論文が掲載された (Bonnefonら、Science、2016)。そもそも倫理学関係の論文がこの科学誌に載ること自体が稀で、それだけにインパクトが大きい。自動運転でなぜ倫理の問題が提起されるのだろう?

 もともと運転自動化で90%の事故は防げると言われている(少なくともテスラはそのように主張している)。しかし残りの10%はどうなるのか。身内が事故死した時、「機械やアルゴリズムのミスだった 」で遺族は納得できるだろうか。その上もっと厄介なことに、「人の命を助けるには誰か他の人を犠牲にせざるを得ない」ケースもままある。

デイヴィッド エドモンズ著『太った男を殺しますか?』に示されたトロッコ問題のイラスト
 倫理学は古くからこの問題に取り組んできたが、中でも「トロッコ問題」というのが有名だ。これにはいろいろバリエーションがあるが、基本的なのは次のような問題だ。

 線路を走っているトロッコが制御不能になった。このままでは、線路上で作業中の5人がトロッコに轢き殺されてしまう。あなたは線路の分岐器の近くにいて、トロッコの進路を切り替えれば5人は助かる。だが困ったことに、切り替えた先にも1人の作業員がいる。5人を助けるために1人を犠牲にしていいのか? それとも運命として、そのまま見過ごすべきなのか?

・・・ログインして読む
(残り:約1295文字/本文:約2809文字)