多数派の声に異を唱えることは、集団生活が刷り込まれた人間の脳には難しい
2018年03月22日
私たちの社会の根幹である民主主義。世論に基づいて政治が回る仕組みをつくることで、完璧にとは言えなくても、特定の勢力に権力が集中することを防いできた。
しかし世論そのものを操作してしまえば、それがハンドルを握る民主主義というクルマの方向を、いとも簡単に変えることができる。そして世論の操作は、プロパガンダやメディア戦略など、これまでさまざまな形で試みられてきた。
もちろん、自分が支持する考えを他人にも納得させ、それによって世論を導くというのは間違いではない。むしろそれこそ、民主主義の王道と言えるだろう。
問題は、意図的に誤った情報を流布し、本来ならば説得されなかったであろう人々まで特定の考えを支持するよう仕向けることだ。そんな「フェイク世論」を生み出す最新の手法として、最近問題となっているのが、AI(人工知能)とSNSの活用である。
発端は2016年に行われた、米国の大統領選挙だ。ソーシャルメディア時代の大統領選挙として、当時のトランプ候補、クリントン候補ともにツイッターやフェイスブックといったSNS対策を積極的に行っていた。
そんな中で、奇妙な現象が確認される。人間がメッセージを投稿するのではなく、機械が自動的に投稿やシェアを行う、いわゆる「ボット」と呼ばれるプログラムが特定の候補に肩入れしていたのである。しかもそれを作ったのは、米国内の政治組織ではなく、数々の論点で米国と対立するロシアであった。
たとえばある調査によると、2016年9月1日から11月15日にかけて、ロシアのボットがトランプ候補のツイート(メッセージ)をリツイート(再投稿によるシェア)した回数は約47万回。一方でクリントン候補に対するリツイート数は、5万回に満たなかったそうである。なぜクリントン候補に対してもリツイートを行ったのか、明確な理由は不明だが、中立を装うために一定の言及をしていたなどの可能性が考えられている。
いずれにしても、このボットの制作者に、トランプ候補を後押しする意図があったことは明白だった。この事件は、大統領選の結果にロシアが影響をおよぼしたのではないかという疑惑へとつながり、米国内で大きな問題へと発展している。
政治組織が財力や技術力にものを言わせ、テレビやCMを通じて大量のメッセージをばらまく、などということはこれまでもあった。国外の勢力によるものという点は不気味だが、舞台がネットに移ったぐらいで大騒ぎする必要があるのか、と感じたかもしれない。
たしかにCMのように、意図的なPRということが明らかな形であれば、大量のメッセージ投稿も許されるかもしれない(それでも資金力のある候補が有利になり、公平性の観点から疑問は残るが)。
問題は、それがあたかも人間が行っているかのように偽装されていたことである。
有料会員の方はログインページに進み、朝日新聞デジタルのIDとパスワードでログインしてください
一部の記事は有料会員以外の方もログインせずに全文を閲覧できます。
ご利用方法はアーカイブトップでご確認ください
朝日新聞デジタルの言論サイトRe:Ron(リロン)もご覧ください