メインメニューをとばして、このページの本文エリアへ

人間そっくりのAIが持つ危険性とこれからの課題

人工知能の急速な進歩を、どうバランスよく制御するか、人の知性が問われる

古井貞煕 豊田工業大学シカゴ校 (TTIC) 理事長

 近年、AI(人工知能)の技術が急速に進展している。コンピューターとネットワークの高速化にともなって、ビッグデータを収集・構築・利用できる環境が整備され、ディープニューラルネットワーク(DNN)による効果的な学習(ディープラーニング=深層学習)が実現してきたことが背景にある。それに伴い、AIの発展が雇用などに与える影響や、倫理、人権との関連、安全保障上のリスクなどについても、研究が進められている。

自ら学習する人工知能

 最近のAIはなぜ有効なのか。従来のコンピューターでは、音声、画像、映像、言語といったさまざまな情報を識別したり、将棋・囲碁のようなゲームを処理したりするには、データの内容に関する情報やプログラムを人間が与えなければならなかった。これに対して、DNNを用いたAIでは、入力と目標出力さえ与えれば、データを適切に処理するパラメーターを自動的に最適化できる。言わばデータの内容をコンピューターが自動的に理解し、適切に判断するようになった。

 最近のAIが大きく進歩した理由は、次のように整理することができる:

【高度な表現力】DNNによって、非線形処理を含むどのような複雑な計算処理も、ほぼ実現できる
【学習可能性】確率的勾配降下(stochastic gradient descent)法によって、いかなる計算処理をするネットワークも、効果的に学習できる
【分散表現】単語や文のような単なる記号やその列が、意味的距離関係を持った多次元ベクトル空間の点として表現される(例えば、「パリ」から「フランス」を引いて「イタリア」を足すと「ローマ」になる、「王様」から「男性」を引いて「女性」を足すと「女王様」になる、など)
【全体最適化】ネットワークのすべての要素を微分可能にすることによって、入力から出力までの処理を全体として最適化できる(従来は、音声や画像認識での複雑な処理を構成する各要素をそれぞれ個別に最適化していたので、必ずしも全体としての最適化になっていなかった)
【表現学習】入力されたデータの特徴を抽出する方法が、ネットワークの最下層で自動的に学習される
【多層の表現能力】より抽象化された高次の特徴についても、ネットワークのそれぞれの階層で、自動的に学習される(多様な音声や多様な画像に共通の特徴は入力に近い層で、言葉や物体の名称に近い区別は出力に近い層で、自動的に学習される)

 これらを背景に、音声認識、画像認識、自動翻訳、情報検索、ロボット、自動運転など、AIのさまざまな領域で、種々の構造のDNNの活用が進んでいる。DNNを用いて、膨大な文献や、生体・遺伝子情報を収集・解析し、病気の予防・診断・早期発見・治療、創薬に活用する研究も進んでいる。マーケティングや投資などでも、DNNの利用が進んでいる。

現在はできないこと、不得意なこと

 このように、AIは近年広く使われるようになってきたが、現在のAIにはまだできないか、不得意なことも沢山ある。これらの課題には、次のようなものがある:

  • 判断の理由を説明すること
  • 論理的思考、抽象化、推論
  • 因果関係、包含関係、コンテキストなどの階層化された知識を用いること
  • 常識を身に着け、用いること
  • 自然言語の意味や対話の流れを理解すること
  • 与えられた学習データにはなかった新たな状況に対処すること(ただし、囲碁や将棋のように、特定のルールが定められて「閉じた世界」になっている場合は、学習用データが与えられなくてもコンピューターが自ら学習できる)
  • 音声、画像、翻訳などの分野に依存しない一般的な問題解決(Artificial General Intelligence)
  • 3次元や4次元の時間・空間イメージ(世界観)を持つこと
  • 適切な疑問や問題を提起すること
  • 創造性を発揮すること
  • 心(意識)を持つこと

 DNNは言わばブラックボックスで、入力に対して、どうしてそのような出力が得られたのかを説明できない。理屈をこねることができない。このため、誤りを生じた場合に、その原因を追究するのが難しく、学習データから外れた対象に対して、どのように振舞うか予想がつかない。そもそも現在のDNNがどうしてこんなにうまくいくのかが、わかっていないとも言える。これは、AIを多くの実際の場面に活用する場合に、問題となる可能性がある。

 このような問題があるとしても、AIは間違いなく、これから日々進歩していき、多くの課題が解決されていくであろう。

人間そっくりのAIの出現

 5月初めにGoogleが開催したイベントで、AI音声対話システム「Google Duplex」のデモがあり、それが大きな話題になっている。Googleのユーザーは、AIシステムに音声やキーボードで指示して、自分の代わりにレストランやヘアサロンに電話をかけてもらい、予約などをすることができる。システムは、自然な人間の声で店に電話して、あたかも人間であるかのように相槌を打ちながら、店の人と会話をし、もしユーザーの条件にぴったりの予約ができなければ、店の人との会話を通じて、条件に近い予約をしてくれる。

ディープニューラルネットワーク(DNN)
 これには、Googleがこれまでに集めた人と人の膨大な対話のデータベースや、音声のデータベースを用いて開発した、再帰型ニューラルネットワーク(RNN)などによる音声認識、対話理解、音声合成技術などが用いられている。デモでは、うまくいく場合しか見ることができないので、どれだけ一般的な対話ができるのか、どれだけ多様な声が作れるのかなど、わからないことが多いが、大きな技術的進歩が起きていることは確かなようである。

 このような、言わば人間そっくりのAIシステムができてくると、大きな問題が生ずる。AIからかかってきた電話を受けた人は、それがAIからとはわからず、普通の人からだと思って対応するが、もし何らかのきっかけで、実は相手がAIだということがわかったら、「だまされた」という感覚を持つであろう。その不快感を避けるためには、倫理的な基準として、AIは、自分がAIであることを、あらかじめ相手に伝えることが必要なのではないだろうか?

 上のデモの場合なら、「クライアントに代わって電話をしている」ということを、最初に伝える必要があるだろう。それでは、そうなったときに、電話を受けたお店の人は、AIと楽しく会話を続けるだろうか? その時にAIの側は、あたかも人間のように、相槌を打ったりする必要があるだろか? もっと単純なやり取りが、むしろ好まれるのではないだろうか?

・・・ログインして読む
(残り:約1392文字/本文:約4095文字)