AIを動かすアルゴリズムは公平性を担保できているか
2020年09月11日
バラク・オバマ政権時代の2016年5月、大統領行政府は「ビッグデータ:アルゴリズム・システム、機会、市民権に関する報告書」を公開した。その23ページに、「人々が公平にあつかわれていることをたしかなものとするために、アルゴリズムの監査とビッグデータの外部テストに関する学術研究と産業界の発展を促進する」ことの重要性が指摘されている。
ところが、この報告書から4年が経過しているにもかかわらず、日本ではこの「アルゴリズム監査」の重要性がほとんど知られていない。そこで、ここでは「アルゴリズム監査」について論じることで、日本の言論界に「喝を入れたい」と思う。
まず、Harvard Journal of Law & Technology(2017年秋号)に収載されたデヴェン・デサイとジョシュア・クロールの共著論文を紹介したい。比較的よくアルゴリズム監査についてまとまっているからである。
最初に、この論文に基づいて、アルゴリズムについて説明しておこう。「ポーチドエッグ」のレシピに、「小さなボールに卵1個を入れる」としか説明がなくても、これが卵を割って、殻をはずして中身だけをボールに入れることを意味していると、人間にはわかる。もっとも「ポーチする」という英語が卵を割ってゆでるということだと知らなければ、卵のままボールに入れてしまうかもしれないが。
これに対して、コンピューターなどのマシンが働くための手順を示すアルゴリズムは正確で詳細な命令を必要としている。人工知能(AI)を動かすにも、詳細な手順が必要なのだが、そのアルゴリズムは外部からはどのようなものなのか、なかなかわかりにくい。アルゴリズムの透明性や説明責任が不十分のまま放置されてしまうと、アルゴリズムで働くAIが不公正な判断をくだしかねない。とくに、公平性が求められる公共サービス分野にAIを導入する場合には、AIを動かすアルゴリズムが公平性を担保できているかが問題になる。
たとえば、2020年夏、英国では成績評価にアルゴリズムを適用した結果、大学の合否にまで混乱が生じるという大不祥事までおきている(詳しくは、資料1や資料2を参照)。
米国では、すでにAIが公共サービス分野でさかんに使われている。ニューヨーク市の場合、2017年8月時点で、アルゴリズムが児童の通うべき学校を決めたり、ごみ収集の頻度を定めたり、どの警察管区が最大の警官を配備するか、建築基準法上の検査をどこで行うかなどにアルゴリズムがかかわっている(ニューヨーク・タイムズ2017年8月24日付)。ゆえに、政府のあらゆる種類の意思決定で使われているコンピューターの命令を市が公表するように求める法案が提出されるに至っている。
すでに「米国の警察改革を日本への警鐘とせよ:顔認証システムの危険性」で指摘したように、AIに基づく顔認証システムを警察が導入する場合にも、その正当性が問題になる。ほかにも、2015年9月に米環境保護局が見つけた、フォルクスワーゲン(VW)のディーゼル車への不正事案は、排出量への公的規制のための排出量検査において、台上試験では排出ガスを低減させる装置を働かせる一方、実際の走行試験では働かないようにする不正ソフトを組み込んでなされたものだった。
この不正が示しているのは、アルゴリズムを
有料会員の方はログインページに進み、朝日新聞デジタルのIDとパスワードでログインしてください
一部の記事は有料会員以外の方もログインせずに全文を閲覧できます。
ご利用方法はアーカイブトップでご確認ください
朝日新聞デジタルの言論サイトRe:Ron(リロン)もご覧ください