「テキストだけ」の偽情報は、ディープフェイクより騙されやすい
2022年03月15日
2022年2月24日、ロシアのウクライナに対する軍事侵攻が始まった。この原稿を執筆している時点では、ウクライナ軍が善戦し、戦前に予想されていたような短期間でのウクライナ陥落には至っていない。しかし同国とロシアとの戦力差は明らかであり、またプーチン露大統領が核兵器の使用もちらつかせるなど、予断を許さない状況が続いている。
そんな中で、やはり発生したのがオンライン上での偽情報だ。実はロシアがウクライナ問題をめぐり、自国に有利なフェイクニュースを発信するのではないかという懸念の声が、米国政府関係者などから発せられていた。そして実際に、侵攻が行われる前から、ロシア発とみられる偽情報の発生・拡散が確認されている。
国家が自国に有利になるよう情報を操作すること、すなわちプロパガンダは、古代ギリシアやローマの時代から存在していたと言われ、それ自体は目新しいものではない。しかし近年の特徴となっているのが、インターネットやデジタル技術を駆使したプロパガンダである。たとえば2016年の米大統領選挙では、同じくロシア政府が首謀者となり、共和党のトランプ候補を当選させるために、ソーシャルメディアを活用して偽情報を発信した疑惑が持たれている。
こうした「デジタル・プロパガンダ」とでも呼ぶべき行為は、技術の進化によって、さらに新たなステージに入ったようだ。侵攻発生直後の2022年2月27日、大手ソーシャルメディアのフェイスブック(Facebook)やインスタグラム(Instagram)を運営するメタ社(2021年にフェイスブックから社名変更)は、彼らのプラットフォーム上で反ウクライナのプロパガンダを行っていたアカウントを削除したことを発表した。
驚くべきはその手口だ。アカウントに対する信頼性を高めるために、AI(人工知能)が生成した、実在しない人間のCG(しかし本当に撮影された写真のように見える)をプロフィール写真として設定していたというのである。
またこうした偽アカウントをフォローするアカウントにも、AIが生成したとみられる顔写真を使ったものが確認されたそうである。言うまでもなく、フォロワーを水増しすることで、元のアカウントの信憑(しんぴょう)性を増すことが狙いだ。
こうした精巧な偽画像、さらには偽動画をAIに生成させるというのは、もはや珍しい話ではない。AI技術の発展により、映像内の人物の顔や声をまったくの別人のものに置き換えたり、衣装や背景を変えてしまったりすることが可能になっている。最近ではそうしたAIを駆使したフェイクコンテンツの多くが、「ディープラーニング(深層学習)」と呼ばれる高度なAI開発手法を用いていることから、「ディープフェイク」とも呼ばれるようになっている。
このディープフェイクについて、AI技術の進化の速さを背景に、もはや人間には見破ることができなくなるのではという声が上がっている。
まだ現時点でのフェイクに対しては、先ほどの「ウラジミール・ボンダレンコ」のように、AIが画像生成する際のクセを検知するなどして、その真偽を見極めることができる。映像のディープフェイクの場合も、たとえばまばたきの回数をチェックする(顔を入れ替えた映像の場合、その回数が不自然に少なくなる)といった手法が使えるそうだ。しかしこうした問題点への対応が行われ、さらに技術自体の精度が上がれば、いつかは本物と寸分たがわないコンテンツが出来上がってしまうだろう、と懸念されている。
しかし最近、興味深い研究結果が発表されている。それは予想に反して、
有料会員の方はログインページに進み、朝日新聞デジタルのIDとパスワードでログインしてください
一部の記事は有料会員以外の方もログインせずに全文を閲覧できます。
ご利用方法はアーカイブトップでご確認ください
朝日新聞デジタルの言論サイトRe:Ron(リロン)もご覧ください