メインメニューをとばして、このページの本文エリアへ

続・機械に責任をもたせることができるか?

「自由」と「責任」の新たな模索

下條信輔 認知神経科学者、カリフォルニア工科大学生物・生物工学部教授

 前稿から自動運転を手がかりに「機械に責任を持たせられるか」を考えている。ここらでいったん現実の問題から引いて、「責任」とその基礎にある(?)「自由」の由来を根本から問い直そう。

「責任」も「自由」も、案外不確かな概念

 社会制度史から見ると、「自由意思」はさほど不動の概念ではないし、「責任」との関係も不変だったわけではない。むしろ個人の「責任」に基盤を置く近代社会の法体系や社会制度の要請から逆に、(後付けで)措定された概念と考えられる(下條信輔「潜在脳、自由意志、社会」、岩波講座「現代」第7巻「身体と親密圏の変容」大澤真幸編;小坂井敏晶「責任という虚構」東京大学出版会)。

 したがって今後AIのインパクトによって、「責任」やその前提としての「自由」の意味自体が大きく変わっても不思議はない。

 さてそれを踏まえた上で、ある対象(エージェントと呼ぼう)に「責任を持たせる」要件(必要十分条件)とは何だろうか。

 今述べた通り、「自由意思」による行為 (自発的行為)ができることが「責任を取れる」前提だが、その正体が何なのか、哲学にも神経科学にもコンセンサスはまだない。

公道で自動走行バスを走らせる全国初の実証実験=11月13日、秋田県の田沢湖畔
 また「自由意思」という非学術的タームに代わる概念として「エージェント(agent)」や「センス・オブ・エージェンシー(sense of agency)」があって、これならロボット工学や認知科学で一応定義された概念として使われている。エージェントとは「自発的な(選択)行為をできる主体」のことで、センス・オブ・エージェンシーとは「自発的な(選択)行為」の感覚のことだ。

 だがこれらについての研究も端緒についたばかりで、その知見が「責任」の必要十分条件をただちに満たすとは思えない。

 それよりはむしろもう一度現実に立ち返り、法制度の中で、たとえば「想定外」は免責の根拠となる点に注目してみよう。

「想定」原理(?)

 「設計・想定の内で起きた出来事には責任を持つ。想定外には責任は持てない」。この考えは現在の法制度のもとでは有力で、説得力がある。だがどこまでが「想定内」かは、原発事故の例を見ればわかるように、案外曖昧だ(本欄拙稿『想定外とブラック・スワン』)。また誰が見ても「想定外」なのに企業が無償修理に至ったケースもある(拙稿『続・原発鳴動、ネズミ一匹〜「想定外」を問う無意味』)。

 この「想定問題」が自動運転などAI絡みで特に深刻になるのは、「シンギュラリティ」が現実に迫ってきているからだ。

 AIがその学習能力を高め、より高次の知的能力を開発できるようになる。すると人工知能の自己再生産による加速度的能力向上が起こり、人から見れば未知数の技術進化が始まる。その爆発的進化が始まる瞬間をシンギュラリティと呼び、2045年にこれが起きると警鐘を鳴らす識者もいる。

 シンギュラリティとは定義上、(人類から見て)想定外の事象をAIが起こし始めることに他ならない。自動運転についても想像を絶する原因で、奇妙な事故が続出するかも知れない。実際プロ棋士とAIが真剣勝負を戦った将棋「電王戦」では、それが次々に起きた(拙稿『将棋電王戦の広がる波紋〜コンピュータは本当に人間に勝ったのか?』他)。

・・・ログインして読む
(残り:約2086文字/本文:約3424文字)