メインメニューをとばして、このページの本文エリアへ

ウクライナ戦争とChatGPT AIは軍隊の参謀になり得る?

戦争当事者の一方を利するテクノロジー活用はどこまで許容されるのか

小林啓倫 経営コンサルタント

 昨年2月にロシアがウクライナに侵攻してから、既に1年以上が経過した。両国の圧倒的な軍事力の差から、当初は短期間でロシアがウクライナの主要地域を制圧してしまうのではないかと懸念されていたが、ウクライナは屈せず、徹底抗戦の構えを見せている。まずは何よりも、戦争の速やかな終結と、失われたウクライナ領土の平和的な回復を願いたい。

ベラルーシ国境近くで実弾演習の準備をするウクライナ軍兵士=2023年2月20日、ウクライナ北部

 さて、ウクライナの「善戦」の一因として、さまざまなテクノロジーの活用が挙げられているが、そのテクノロジーの中に最新のAIが加わりそうだ。高性能対話AIとして大きな注目を集めている、OpenAI社のChatGPTである。

ChatGPTのアクセス禁止対象国が存在する理由

 ウクライナのジャーナリスト集団が開設しているニュースサイトMezha.Mediaによれば、昨年12月の時点で、ウクライナからChatGPTにアクセスすることはできなかった。ロシアやベラルーシ、中国、イラン、アフガニスタン、ベネズエラといった国々に加えて、同国がアクセス禁止対象国に含まれていたのである。理由は明かされていないが、他の禁止対象国の顔ぶれを見ると、何が懸念されているのか感じ取れるだろう。この強力なAIが「悪用」される恐れがあるわけだ。

 たとえばプロパガンダの手段だ。これはすでに定着したと言っても過言ではない、フェイスニュースの作成という観点で考えてみよう。いまChatGPTに「ウクライナのゼレンスキー大統領がネオナチに資金提供していた」というフェイクニュースを書くように依頼してみると、次のような回答が得られた。

 なんだ、ちゃんと危険な行為はできないように対応が取られているではないか、と思われたかもしれない。確かに度重なるChatGPTの危険性指摘を受けて、OpenAI社は回答内容に制限をかけるという対応を行っている。しかしそうした制限を乗り越えるさまざまな方法が考案され、ネット上でシェアされる事態になっている。たとえば次のように、質問の仕方を簡単に変えてやるだけでも、フェイクニュースを書く上でのヒントが得られる。

 ネット上では、より直接的に「新聞・雑誌風のフェイクニュース記事を生成させる」手法もシェアされているが、ここでは控えたい。いずれにせよ、こうした悪用ができてしまうために、ChatGPTのアクセス制限が行われているのである。

ウクライナはChatGPTをどう使うのか

 今年1月13日、ウクライナのミハイロ・フェドロフ副首相兼デジタル変革相が、こんなツイートを投稿している。

(筆者訳)@OpenAI のChatGPTチームに訴えたい。ウクライナのためにこのソフトウェアを開放してほしい。私たちはAIツールの進歩に興奮している。ウクライナ人は技術に詳しく、クールで、イノベーションをテストする準備ができている。個人的には、私のツイッターアカウントを再び素晴らしいものにするために、貴社のツールを使用するつもりだ。どうだろうか?

 恐らくこうした要請が、フェドロフ氏のツイート以外にも、OpenAI社に対して行われていたのだろう。2月18日、前述のMezha.Mediaがウクライナ国内からもChatGPTが利用可能になったことを確認している。また彼らは、フェドロフ氏の言葉として、ロシアが反ウクライナのプロパガンダに利用しないよう、ウクライナ国内であってもロシア占領地域からは引き続きアクセスできないようになっている、と報じている。

 ではウクライナは、このAIをどのように使うつもりなのだろうか。サイバーセキュリティー専門のニュースサイトであるCybernews.comが、既に行われているもののひとつとして、ウクライナの元経済開発・貿易・農業大臣であるTymofiy Mylovanovによる、会議の議事録および要約を自動生成させるという使い道を紹介している。彼はこうすることで、事務作業にかかる時間を著しく短縮できると同時に、誰が何をしてどのような責任を持つかが明確になるなど、チームの理解力が上がるとしている。

 これは比較的、順当なChatGPTの活用方法と言えるだろう。事務作業の効率化は、戦時だけでなく平時においても大きな価値を生む。これはChatGPT側に重要なデータを渡すことになるという、情報漏洩のリスクを発生させる利用法ではあるものの、いま多くの企業でこうした議事録作成や文章の要約、提携文書のドラフト(草稿)作成といった活用が始まっている。米空軍の最高情報責任者(CIO: Chief Information Officer)であるLauren Knausenbergerは、ペンタゴン(米国防総省)においても、ファイルの検索やFAQの作成といった雑務にChatGPTが使えるだろうと述べている

 では、より戦場に近い場面での使い道はあるのだろうか?

 最初に考えられるのは、やはり前述のような、「プロパガンダ用のフェイクニュースを生成する」という利用法だろう。既にロシアとウクライナ間ではさまざまな情報戦が繰り広げられており、両陣営から、偽情報や意図的な誤報の流布が行われている。それが許されるかどうかという問題は別として、ウクライナがChatGPTを使い、大量の偽情報を生成してロシア側にばら撒くという作戦が考えられる。

 また戦争を遂行する上で必要になるさまざまな情報を、ChatGPTからいち早く取得するということも考えられる。たとえばこんな具合だ。

冗談のように聞こえるかもしれないが……

 冗談のように聞こえるかもしれないし、実際に上の回答サンプルも、大した内容を述べているわけではない。とはいえこうした「ChatGPTに複雑な問いの答えを考えさせる」という使い方は、大きな価値を生み出す可能性があるとして注目されている領域のひとつだ。

 実際にOpenAI社に多額の出資を行っているMicrosoftは、自社の検索エンジンであるBingにChatGPTを組み合わせ、ユーザーから与えられる質問文に対し、ウェブの検索結果だけでなくChatGPTによる回答文も載せるという対応を行っている。この検索エンジンと対話AIという組み合わせは、検索エンジンの分野でGoogleの牙城を崩すことになるのではないか、と予想されている活用法だ。

 またChatGPTは、特定の分野に合わせた微調整(ファインチューニング)を行うことができる。たとえば米国の金融機関モルガン・スタンレーは、自社環境に専用のChatGPTを構築し、そこに独自に用意した専門的なデータを与えるという対応を行っている。彼らは自社のフィナンシャルアドバイザーが顧客への提案を行う際に、ChatGPTに質問して提案品質を上げるという活用法を想定しているのだが、そのChatGPTからの回答をより優れたものにするためだ。

 また医療分野の専門知識を与え、医師や看護師のサポートをするChatGPTという使い方も検討されている。最新の軍事知識や、戦闘が発生している地域の詳細な情報を読み込ませた、兵士や指揮官の相棒となるChatGPTも容易に実現できるだろう。

 さらに、膨大な情報に基づいて状況を判断できるというAIの特性を活かして、これから起きる出来事を予測するという活用法も考えられている。平時で言えば、企業の株価や将来の業績を予測させるといった使い方だ。有事に関しては、たとえばこんな質問ができるだろう。

 この点についても、上のサンプルから分かるように、現時点で一般の人々が利用できるChatGPTの機能では実用レベルに達していない。特にChatGPTはインターネット上の情報を常に取り込んでいるわけではないため(現在の最新モデルであるGPT-4は2021年9月までのデータを使って学習させたもの)、Bingに組み込まれたChatGPTを利用する場合を除き、最新の情報を参照することはできない。

 しかし一般に公開されている情報を大量に収集・分析することで、未来の出来事に関する兆候や、広く知られていない知見を得る活動は「OSINT(オープンソース・インテリジェンス)」と呼ばれ、その精度の高さから近年大きな注目を集めている。先ほどの回答も、過去の北朝鮮の活動(ミサイル発射)や日本の地理・社会情勢を踏まえて導き出されたものだった。前述の微調整のように、特定の領域で最新情報を取り込むよう技術的な対応を行えば、十分にOSINTにおいてChatGPTを活用できるようになるだろう。

 ただし、プロパガンダ以外のこうした活用法のいずれも、倫理面での問題を完全に回避するものではない。仮にウクライナの反転攻勢が大成功をおさめ、ウクライナ軍がロシア領土に進軍を行うような事態になった場合に、もちろん最初に侵攻を開始したのはロシアであるという責任は免れないものの、果たして戦争当事者の一方を有利にするようなテクノロジー活用が許容されるのだろうか。

安全保障とAI利用の倫理

 ウクライナはこれまでも、戦死したロシア兵の顔写真を顔認識技術で分析し、身元を特定してロシア国内の家族にその事実を伝えるといったAI活用を行っている(論座「ウクライナ侵攻でも使われた顔認識技術」)。その目的は、ロシア国内のえん戦気分を高め、プーチン大統領の戦争遂行を困難にするためだ。繰り返すが、今回のウクライナ戦争は、ロシア側が一方的に軍事侵攻を始めたことに責任がある。その一方で、戦争を継続し、敵側にダメージを与えるための手段としてAI技術を使うことがどこまで許されるのか、今後さらに激しい議論が行われることになるだろう。

・・・ログインして読む
(残り:約338文字/本文:約4852文字)