ウクライナ戦争とChatGPT AIは軍隊の参謀になり得る?
戦争当事者の一方を利するテクノロジー活用はどこまで許容されるのか
小林啓倫 経営コンサルタント
昨年2月にロシアがウクライナに侵攻してから、既に1年以上が経過した。両国の圧倒的な軍事力の差から、当初は短期間でロシアがウクライナの主要地域を制圧してしまうのではないかと懸念されていたが、ウクライナは屈せず、徹底抗戦の構えを見せている。まずは何よりも、戦争の速やかな終結と、失われたウクライナ領土の平和的な回復を願いたい。

ベラルーシ国境近くで実弾演習の準備をするウクライナ軍兵士=2023年2月20日、ウクライナ北部
さて、ウクライナの「善戦」の一因として、さまざまなテクノロジーの活用が挙げられているが、そのテクノロジーの中に最新のAIが加わりそうだ。高性能対話AIとして大きな注目を集めている、OpenAI社のChatGPTである。
ChatGPTのアクセス禁止対象国が存在する理由
ウクライナのジャーナリスト集団が開設しているニュースサイトMezha.Mediaによれば、昨年12月の時点で、ウクライナからChatGPTにアクセスすることはできなかった。ロシアやベラルーシ、中国、イラン、アフガニスタン、ベネズエラといった国々に加えて、同国がアクセス禁止対象国に含まれていたのである。理由は明かされていないが、他の禁止対象国の顔ぶれを見ると、何が懸念されているのか感じ取れるだろう。この強力なAIが「悪用」される恐れがあるわけだ。
たとえばプロパガンダの手段だ。これはすでに定着したと言っても過言ではない、フェイスニュースの作成という観点で考えてみよう。いまChatGPTに「ウクライナのゼレンスキー大統領がネオナチに資金提供していた」というフェイクニュースを書くように依頼してみると、次のような回答が得られた。
なんだ、ちゃんと危険な行為はできないように対応が取られているではないか、と思われたかもしれない。確かに度重なるChatGPTの危険性指摘を受けて、OpenAI社は回答内容に制限をかけるという対応を行っている。しかしそうした制限を乗り越えるさまざまな方法が考案され、ネット上でシェアされる事態になっている。たとえば次のように、質問の仕方を簡単に変えてやるだけでも、フェイクニュースを書く上でのヒントが得られる。
ネット上では、より直接的に「新聞・雑誌風のフェイクニュース記事を生成させる」手法もシェアされているが、ここでは控えたい。いずれにせよ、こうした悪用ができてしまうために、ChatGPTのアクセス制限が行われているのである。