AIを利用した権力は「全知全能」の存在に近づく
2020年04月27日
人工知能(AI)はいま、融資可能か否かの選別や採用人事の可否などに実際に活用されている。加えて、顔認証にもAIは利用されており、監視手段としても使われている。「キラーロボット」に組み込まれて、軍事用にAIが利用される事態も起きている。
今後、診断や治療など、AIはますます医療にコミットするようになるだろう。ゆえに、「AI倫理」が問われる時代を迎えていると言える。そこで、2回に分けてAI倫理について考察したい。2003年に『ビジネス・エシックス』(講談社現代新書)を著した者として、AI倫理を問う際に必要な核心となるべき論点を明確にしたいのである。
AIの利用が多方面にわたるほど、それぞれの場面で倫理とのかかわりが問題になる。ここではまず、AIが人間の偏向を反映してしまうという問題について考えてみよう。
2019年11月、ゴールドマンサックス発行のアップルの新しいクレジットカードの使用限度額に「男女差別」があるのではないかと疑念が生じた。その限度額決定を担っていたのはAIだから、AI倫理が問われることになったのである。
具体的には、ハンソン夫妻の限度額について、妻の限度額が夫の20分の1であったことがツイートされ、ニューヨーク州金融サービス局が捜査に乗り出す騒ぎとなった。ゴールドマンサックス側は、その限度額決定が性・人種・年齢といった要因ではなく、顧客の「信用価値」に基づいたものであると説明しているが、限度額決定に利用されているAIのアルゴリズム(問題解決のための計算処理手順)が人間によって書かれている以上、そのアルゴリズムそのものが人間の偏向に由来しているのではないかと疑われている。
プリンストン大学のコンピューター・サイエンス部門のオーリガ・ルサコフスキー准教授によれば、AIにおける偏向には三つのルートがある(ニューヨークタイムズ2019年11月19日付)。
第一は、データにおける偏向だ。データに収集において、人々はデータにおける偏向を軽減する方法を探そうとするが、視点はさまざまであり、そもそも男女の公平性といったものはないという。第二に、アルゴリズム自体に偏向の理由がある。なぜならアルゴリズムはデータにおける偏向を増幅してしまうからである。第三のルートは人間による偏向である。AI研究者は主として男性であり、彼らはある種の人種的人口統計を反映しており、高い社会経済的地区で成長した、何らのハンディキャップのない人々だというのだ。
ここで紹介したいのは、2019年刊行のキャロライン・ペレス著『目に映らない女性たち』(Invisible Women)という著作だ。彼女はこのなかで、女性のことをあまり考慮せずに設計された制度・製品・サービスについて考察している。たとえば、スマートフォンは女性の手には大きすぎるのではないか。こうした男性偏重という「伝統」がアルゴリズムにも反映されて、その伝統がAIにも継承されているのではないか。
だからこそ、性によって区別されたAIがもたらす影響として国連教育科学文化機関(UNESCO)の注目するところとなっている。音声分野では、音声による命令で動く「スマートスピーカー」が現在、急成長中だ。アマゾンはエコー(AI、Alexa[アレクサ]搭載)、アップルはホームポッド(AI、Siri[シリ]搭載)、グーグルはグーグル・ホームと呼ばれるスマートスピーカー(AI、Assistant[アシスタント]搭載)を投入している。
これらのスマートスピーカーは、結果として応答する声の性差の問題を引き起こしている。ユネスコは2019年に、女性と見受けられるSiriに卑猥な言葉を投げかけると、“I’d blush if I could”(恥ずかしくて顔が紅くなるわ。わたしにはできないけど)と答えることから、同じタイトルの報告を公表し、AIが女性を従属的存在とする「ジェンダーバイアス」を助長しかねないと警告した。
AIは人間がデータを集めてきて、それを機械学習のためのアルゴリズムにしたがって反復学習させて一定の法則化ないしモデル化するものだ。データを収集したり、データを分類したり、あるいは統計計算をするためのアルゴリズムをつくったりするのも当初は人間だ。
ゆえに、AIは「人間臭さ」を内包している。女性がAIをつくれば、共感を重視する感情優位のAIになるし、男性がつくれば序列重視の目的指向型のAIができることになるだろう。いまのところ、AIは依然として男性偏重でつくられており、AI倫理においてもジェンダー問題が併存していると言っていい。つまり、AI倫理は人間そのものの倫理に直結したものなのである。
もちろん、AIにも長所はある。24時間つづけてさまざまな判断をくだしてくれるから、迅速で効率的な利用が可能となる。加えて、人間が陥りやすい判断ミスを避けるようなアルゴリズムをつくることで、人間以上に正確で的確な判断をくだすことも可能だ。
たとえば、人間には信じたいことを裏づけようとする偏向がある(確証バイアス)があるが、こうした偏向をAIは部分的に取り除くことができる。感情的な印象ですべてを評価しようとする人間の偏向もAIは回避可能だ。手元の情報だけを重視し、手元にないものを無視するというのも人間の心理的偏向の特徴だが、これもAIならより広範なデータに基づく判断をしてくれる。
AI倫理を問う際、重大なのは「気高い嘘」(noble lies)についてしっかりと気づくことではないか。
プラトンはRepublic(日本では『国家』と訳されることが多い)の第三巻のなかで、つぎのようにソクラテスに語らせている。
「われわれは適切に用いられるべき偽りのことを先ほど語っていたが、そうした作り話として何か気高い性格のものを一つつくって、できれば支配者たち自身を、そうでなければ他の国民たちを、説得する工夫はないもの
有料会員の方はログインページに進み、朝日新聞デジタルのIDとパスワードでログインしてください
一部の記事は有料会員以外の方もログインせずに全文を閲覧できます。
ご利用方法はアーカイブトップでご確認ください
朝日新聞デジタルの言論サイトRe:Ron(リロン)もご覧ください