AIを使った犯罪捜査で人種差別はなくせるのか?
蓄積されるデータ、精度が上がる監視機器と捜査のバイアスはどう関係するか
酒井吉廣 中部大学経営情報学部教授

ロス市警77丁目署の一室。ホットスポットと実際に犯罪が発生している場所を示した地図や要注意人物の足取りなどが表示されている=米ロサンゼルス
前回の「AIを使った予測捜査であなたは丸裸にされる?」に続いて、本稿ではAI捜査のために使うシステムとそれを活用する警察に焦点を当てる。
朝日新聞および同デジタルでも、ロサンゼルス(LA)市や京都府で過去に職務質問を受けた人が、AIによる予測捜査で自分にとって不利なバイアスがかかる不安があると発言したことが述べられている。これは、米国各地の市民の自由を守る団体等が開くAIを使った予測捜査への利用についての公聴会の席等で散見される質問だ。
AI分析のためのコンピューターシステム
LA市警ほか多くの米国の警察は「プレッドポル(予測捜査という英熟語を簡略読みしたもの)」と名付けたシステムを使って、AIを使った予測捜査を始めているが、その結果、生身の警官だけが行う捜査より精度が2倍高まったとの報告もなされている。
「プレッドポル」はニューヨーク(NY)市警によって開発されたコンピューター・パタナイザー(パターン化する機械という意味からの呼び名)を使っている。できるだけ多くの種類と数のデータを入力し、アルゴリズムを使って犯罪発生パターンを推測していくAIだ。
入力されるデータは以下の通りだ。
まず、警官が入力するデータとして、①逮捕歴、②反社会的勢力との関係、③保護観察歴、④執行猶予歴、⑤被職務質問歴の五つがある。また、警官に(少なくともNY市警では)装着が義務化されている高性能カメラによる撮影情報として自動入力されるものに、目、頭(髪)、口の場所や形、鼻、肌の色、胴回り、性別、見かけ年齢、がある。
さらに、犯罪発生予測を地域別にマッピングするため、一定区間ごとに設置されたカメラの映像を150メートル四方で分割するなどして、犯罪多発地区を科学的に割りだそうという努力も続けている。
いずれも、住民を公平かつ平等に扱った捜査を実現することを目的としているが、「プレッドポル」への批判として、人種等の差別に繋がりかねないのではないかとの懸念は当初からあり、今後もなくならないだろう。
こうした懸念に関連し、アマチュアの釣り人や漁業船が魚群探知機を使うことと同じで、捜査の入り口で使う以上の活用は良くないと主張するベテラン警官もいる。アルゴリズムは、データを増やし実験を繰り返すことで精度を上げられるが、(現在の科学の限界もあって)アルゴリズム自体に特有のバイアスがかかることが指摘されているのも事実だ。
そのため、全米各地の警察本部では、「科学は完全な芸術にはならない」との発想で、警官達によるチェック等を絶やさないようにしている。