蓄積されるデータ、精度が上がる監視機器と捜査のバイアスはどう関係するか
2019年07月18日
前回の「AIを使った予測捜査であなたは丸裸にされる?」に続いて、本稿ではAI捜査のために使うシステムとそれを活用する警察に焦点を当てる。
朝日新聞および同デジタルでも、ロサンゼルス(LA)市や京都府で過去に職務質問を受けた人が、AIによる予測捜査で自分にとって不利なバイアスがかかる不安があると発言したことが述べられている。これは、米国各地の市民の自由を守る団体等が開くAIを使った予測捜査への利用についての公聴会の席等で散見される質問だ。
LA市警ほか多くの米国の警察は「プレッドポル(予測捜査という英熟語を簡略読みしたもの)」と名付けたシステムを使って、AIを使った予測捜査を始めているが、その結果、生身の警官だけが行う捜査より精度が2倍高まったとの報告もなされている。
「プレッドポル」はニューヨーク(NY)市警によって開発されたコンピューター・パタナイザー(パターン化する機械という意味からの呼び名)を使っている。できるだけ多くの種類と数のデータを入力し、アルゴリズムを使って犯罪発生パターンを推測していくAIだ。
入力されるデータは以下の通りだ。
まず、警官が入力するデータとして、①逮捕歴、②反社会的勢力との関係、③保護観察歴、④執行猶予歴、⑤被職務質問歴の五つがある。また、警官に(少なくともNY市警では)装着が義務化されている高性能カメラによる撮影情報として自動入力されるものに、目、頭(髪)、口の場所や形、鼻、肌の色、胴回り、性別、見かけ年齢、がある。
さらに、犯罪発生予測を地域別にマッピングするため、一定区間ごとに設置されたカメラの映像を150メートル四方で分割するなどして、犯罪多発地区を科学的に割りだそうという努力も続けている。
いずれも、住民を公平かつ平等に扱った捜査を実現することを目的としているが、「プレッドポル」への批判として、人種等の差別に繋がりかねないのではないかとの懸念は当初からあり、今後もなくならないだろう。
こうした懸念に関連し、アマチュアの釣り人や漁業船が魚群探知機を使うことと同じで、捜査の入り口で使う以上の活用は良くないと主張するベテラン警官もいる。アルゴリズムは、データを増やし実験を繰り返すことで精度を上げられるが、(現在の科学の限界もあって)アルゴリズム自体に特有のバイアスがかかることが指摘されているのも事実だ。
そのため、全米各地の警察本部では、「科学は完全な芸術にはならない」との発想で、警官達によるチェック等を絶やさないようにしている。
パタナイザーの開発はNY市警が独自に始め、当初は中堅・中小またはスタートアップのシステム開発企業が中心となって支援していた。
そんななか、二つの点で将来の問題となるような話が出てきている。
一つ目は、NY市警が使っている高性能カメラの提供企業についてだ。実はこのカメラは中国企業から提供されている。昨年来の米中貿易摩擦や通信技術覇権(安全保障)等の紛争激化を受け、中国製のままで良いのかという疑問が投げかけられた。
しかし、これ自体が異文化や人種の壁にぶつかっているとの見方もあり、デブラシオ・NY市長は問題とはしていない。また、彼は6月26日の第一回民主党大統領候補予備選<一日目>に参加した際にも(彼は大統領候補でもある)、米国のリスクは(中国ではなく)ロシアだと主張し、今のところ変更の兆しはない。
二つ目の問題は、グーグルが子会社のWazeで開発しているナビゲーション・アプリについてである。このアプリは道路情報をリアルタイムで把握し、運転者が目的地に最短で行けるようにするものだが、情報把握機能の中に、警官が飲酒運転等の張り込みをやっている場所も含まれるのだ。地域の安全という目的達成の妨げや、飲酒運転という違法行為者を逃がすことにもなるほか、AIへの活用に向けたビッグ・データの作成という観点でも問題である。
NY市警は、飲酒運転見張り場所についての情報提供を停止するよう通告書を発出した。グーグル側は顧客の安全を最優先していると回答するにとどめ、それ以上の進展がないままになっている。
これは、基本的には「警察による住民の安全のための行為」と「個人の生活の利便性向上のためのサービス」の対立であり、結論を出すのが難しい。ただ、このような事態は、AIを使った事前捜査の普及およびその完成度を高めるという意味で問題なしとしないのも事実である。
話は2001年とやや古くなるが、9・11(セプテンバー・イレブン)テロの直後、11月上旬の夜8時頃に、ニューヨーク市ブルックリン地区の地下鉄駅で、パキスタン系アメリカ人が職務質問された。
彼は、NY市内にある私立大学の英語教師で、南アジア人特有の発音の癖を感じさせない米国英語を話していた。NYでは9・11後、人種や宗教差別的なさまざまなトラブルが起こっていたので、彼は近寄ってくる警官に不安を覚え、速足で帰宅を急いだ。ところが、それが警官に「逃亡」と勘違いされ、職務質問を受けただけでなく、近くの警察署まで連行され、一晩、拘置所で過ごし、翌日に家族が迎えに来て、ようやく無罪放免となった。
被職務質問歴はコンピューターへの入力項目である。米国の場合、社会保障番号でほとんどの情報が繋がるようになっているが、職務質問内容の住所や勤務先等の詳細なプロファイルは未来永劫に記録として残る。
なお、データとしては、すべてのNY市民を対象としないとビッグ・データとしてAIの利用に堪えないので、NY市警には全NY市在住者のデータが入力されていると考えた方が良い。
これが市民団体の懸念する、バイアス発生のメカニズムである。
実際、彼はその後も2回(2014年と2017年)職務質問を受けていた。18年間に3回というのは、ワスプやユダヤ系白人の中間層以上ではほとんどゼロであることを考えれば、決して少なくはない。
ちなみに、NY市ではAIを使った予測捜査に対し、一週間に600件以上のクレームをつけられている。現段階ではAIを使った予測捜査への完全移行は難しい状況だ。
ところで、捜査上のバイアスは、警官が職務質問する段階で起こる可能性の方がはるかに高い。
有料会員の方はログインページに進み、朝日新聞デジタルのIDとパスワードでログインしてください
一部の記事は有料会員以外の方もログインせずに全文を閲覧できます。
ご利用方法はアーカイブトップでご確認ください
朝日新聞デジタルの言論サイトRe:Ron(リロン)もご覧ください