アルゴリズムにも「監査」が必要だ
AIを動かすアルゴリズムは公平性を担保できているか
塩原俊彦 高知大学准教授
バラク・オバマ政権時代の2016年5月、大統領行政府は「ビッグデータ:アルゴリズム・システム、機会、市民権に関する報告書」を公開した。その23ページに、「人々が公平にあつかわれていることをたしかなものとするために、アルゴリズムの監査とビッグデータの外部テストに関する学術研究と産業界の発展を促進する」ことの重要性が指摘されている。
ところが、この報告書から4年が経過しているにもかかわらず、日本ではこの「アルゴリズム監査」の重要性がほとんど知られていない。そこで、ここでは「アルゴリズム監査」について論じることで、日本の言論界に「喝を入れたい」と思う。
レシピと違うアルゴリズム

Shutterstock.com
まず、Harvard Journal of Law & Technology(2017年秋号)に収載されたデヴェン・デサイとジョシュア・クロールの共著論文を紹介したい。比較的よくアルゴリズム監査についてまとまっているからである。
最初に、この論文に基づいて、アルゴリズムについて説明しておこう。「ポーチドエッグ」のレシピに、「小さなボールに卵1個を入れる」としか説明がなくても、これが卵を割って、殻をはずして中身だけをボールに入れることを意味していると、人間にはわかる。もっとも「ポーチする」という英語が卵を割ってゆでるということだと知らなければ、卵のままボールに入れてしまうかもしれないが。
これに対して、コンピューターなどのマシンが働くための手順を示すアルゴリズムは正確で詳細な命令を必要としている。人工知能(AI)を動かすにも、詳細な手順が必要なのだが、そのアルゴリズムは外部からはどのようなものなのか、なかなかわかりにくい。アルゴリズムの透明性や説明責任が不十分のまま放置されてしまうと、アルゴリズムで働くAIが不公正な判断をくだしかねない。とくに、公平性が求められる公共サービス分野にAIを導入する場合には、AIを動かすアルゴリズムが公平性を担保できているかが問題になる。
たとえば、2020年夏、英国では成績評価にアルゴリズムを適用した結果、大学の合否にまで混乱が生じるという大不祥事までおきている(詳しくは、資料1や資料2を参照)。