安全保障を名目にすれば、際限なく利用が認められてもよいのか
2021年05月13日
2021年4月21日、欧州連合(EU)の欧州委員会は「人工知能(AI)に関する調和のとれた規則を定め特定の連合法を改正する、欧州議会および欧州評議会の規制案」を公表した。これは、企業や政府がAIをどのように使用できるかを規定するための規制案だ。AIのもたらす社会経済的利益と、個人や社会にもたらす新たなリスクや負の影響のバランスをとろうとするアプローチからなっている。ここでは、世界最先端のAI規制の動きについて論じてみたい。
この白書では、AIの導入を促進することと、そのような技術の特定の用途に関連するリスクに対処することという二つの目的を達成する方法について、政策オプションが提示されている。今回の提案は、信頼できるAIのための法的枠組みを提案することで、信頼のエコシステムを発展させるという二つ目の目的を実現することを目的としている。
AI規制の背後にあるAIを規制しなければならない理由を理解するためには、AIに対する基本的な知識が必要になる。そこで、「AIはあなたが考えているようなものではない」という記事を参考に基礎的な説明をしておこう。
その記事の最初には、「AIと聞いて、我々ができることをすべて、よりよくこなすコンピューターを想像するのはやめよう」と書かれている。なぜなら、AIは人間がつくったものであり、「女性や有色人種など、人間の持つバイアスを反映したコンピューターシステムを構築していることになる」からだ。ゆえに、AIを利用しているからといっても、決して十分に信頼できるわけではない。だからこそ、AIを政府や企業が利用することに対して、厳しい規制が必要になるわけである。なお、こうした問題については、すでに拙稿「「AI倫理」を問う(上):「気高い嘘」との対峙」や「「AI倫理」を問う(下):人間中心主義からの脱却」で論じているので、そちらを参考にしてほしい。
提案では、特定のAIに関する利用行為が禁止されている。高リスクのAIシステムの特定要件を定め、そのようなシステムの運用者に義務を課している。人間との対話を目的としたAIシステム、感情認識システム、生体情報の分類システム、画像・音声・映像コンテンツの生成・操作に使用されるAIシステムについては、透明性ルールが課される。さらに、市場監視・モニタリングに関するルールも定められている。
もう一つ重要なことは、「専ら軍事目的で開発または使用されるAIシステムには適用されないものとする」と規定されている点だ。拙稿「AI利用最前線の闇 「ゴーストワーク」と「キラーロボット」」で指摘したように、AIは軍事利用されており、キラーロボットと呼ばれるロボットが人殺しを行うまでに至っている。
最近で言えば、2020年12月、米空軍は初めてU-2スパイ機にAIを使用することに成功した。「AIが非武装の偵察機とはいえ、業務用航空機に配備されたのである」と、2021年2月17日付の「ワシントン・ポスト電子版」に掲載された「コンピュータ・アルゴリズムは倫理的に戦争を戦うことを学べるのか?」という長文の記事が伝えている。国防総省の未分類予算では、2020年に兵器開発を含むAIに9億2700万ドルの支出を求め、2021年には8億4100万ドルを求めていたという。「先進軍事技術の重要な発祥の地である国防高等研究計画局(DARPA)は、2023年に締めくくる5年間で20億ドルをAIに費やす計画だ」と、記事は報じている。中国やロシアも軍用AIに力を入れている現状を考慮すると、AIの軍事利用について世界が早急に規制を導入することを求めたいところだが、現実は厳しい。
今回の提案はどのようなAI利用を禁止としているのだろうか。提案では、AI利用に伴うリスクを、①許容できないリスク、②高いリスク、③低いまたは最小限のリスクの三つに分け、①のリスクに対してはAIシステム自体を禁止としている。具体的には、意識を超えたサブリミナルな手法で人を操作したり、子どもや障害者など特定の弱者の脆弱性を悪用して、本人や他人に心理的・身体的危害を加える可能性のある方法で行動を著しく歪めたりする可能性が大きいものを対象としている。
また、この提案では、公的機関が行う一般的な目的のためのAIによるソーシャルスコアリングを禁止している。
最後に、法執行を目的とした公共アクセス可能な空間での「リアルタイム」遠隔生体認証システムの使用も、行方不明の子供を含む、特定の潜在的犯罪被害者を対象とした捜索、人の生命や身体の安全に対する具体的、実質的かつ差し迫った脅威、またはテロ攻撃の防止などの場合を除き、禁止
有料会員の方はログインページに進み、朝日新聞デジタルのIDとパスワードでログインしてください
一部の記事は有料会員以外の方もログインせずに全文を閲覧できます。
ご利用方法はアーカイブトップでご確認ください
朝日新聞デジタルの言論サイトRe:Ron(リロン)もご覧ください