「自由」と「責任」の新たな模索
2016年11月18日
前稿から自動運転を手がかりに「機械に責任を持たせられるか」を考えている。ここらでいったん現実の問題から引いて、「責任」とその基礎にある(?)「自由」の由来を根本から問い直そう。
社会制度史から見ると、「自由意思」はさほど不動の概念ではないし、「責任」との関係も不変だったわけではない。むしろ個人の「責任」に基盤を置く近代社会の法体系や社会制度の要請から逆に、(後付けで)措定された概念と考えられる(下條信輔「潜在脳、自由意志、社会」、岩波講座「現代」第7巻「身体と親密圏の変容」大澤真幸編;小坂井敏晶「責任という虚構」東京大学出版会)。
したがって今後AIのインパクトによって、「責任」やその前提としての「自由」の意味自体が大きく変わっても不思議はない。
さてそれを踏まえた上で、ある対象(エージェントと呼ぼう)に「責任を持たせる」要件(必要十分条件)とは何だろうか。
今述べた通り、「自由意思」による行為 (自発的行為)ができることが「責任を取れる」前提だが、その正体が何なのか、哲学にも神経科学にもコンセンサスはまだない。
だがこれらについての研究も端緒についたばかりで、その知見が「責任」の必要十分条件をただちに満たすとは思えない。
それよりはむしろもう一度現実に立ち返り、法制度の中で、たとえば「想定外」は免責の根拠となる点に注目してみよう。
「設計・想定の内で起きた出来事には責任を持つ。想定外には責任は持てない」。この考えは現在の法制度のもとでは有力で、説得力がある。だがどこまでが「想定内」かは、原発事故の例を見ればわかるように、案外曖昧だ(本欄拙稿『想定外とブラック・スワン』)。また誰が見ても「想定外」なのに企業が無償修理に至ったケースもある(拙稿『続・原発鳴動、ネズミ一匹〜「想定外」を問う無意味』)。
この「想定問題」が自動運転などAI絡みで特に深刻になるのは、「シンギュラリティ」が現実に迫ってきているからだ。
AIがその学習能力を高め、より高次の知的能力を開発できるようになる。すると人工知能の自己再生産による加速度的能力向上が起こり、人から見れば未知数の技術進化が始まる。その爆発的進化が始まる瞬間をシンギュラリティと呼び、2045年にこれが起きると警鐘を鳴らす識者もいる。
シンギュラリティとは定義上、(人類から見て)想定外の事象をAIが起こし始めることに他ならない。自動運転についても想像を絶する原因で、奇妙な事故が続出するかも知れない。実際プロ棋士とAIが真剣勝負を戦った将棋「電王戦」では、それが次々に起きた(拙稿『将棋電王戦の広がる波紋〜コンピュータは本当に人間に勝ったのか?』他)。
有料会員の方はログインページに進み、朝日新聞デジタルのIDとパスワードでログインしてください
一部の記事は有料会員以外の方もログインせずに全文を閲覧できます。
ご利用方法はアーカイブトップでご確認ください
朝日新聞デジタルの言論サイトRe:Ron(リロン)もご覧ください