メインメニューをとばして、このページの本文エリアへ

Googleグラスが社会に普及すると何が起きるのか?――連続討議「ソーシャルメディア社会における情報流通と制度設計」から(2)

情報ネットワーク法学会

 Googleが生み出そうとしている新たなデバイス「Googleグラス」。プレゼンを行ったNTTコミュニケーション科学基礎研究所の木村昭悟氏は「画像認識の技術は、人に関して特異的に発展している」と述べる(参照:連載(1)「ライフログが全面公開された「キンミライ」)。画像認証の技術と個人のライフログ、さらにアマゾンや楽天といった巨大プラットフォームの情報が統合されれば、どうなるか。討議メンバーの質問は、今後実現されうる技術的な可能性に集中した。(構成:新志有裕)

可能なのは「過去の事例に基づいた予測」

<一戸>(複数のプラットフォームを結合して多角的に分析する)事例J(連載<1>参照)に関して、(単一プラットフォームである)Togetterをマルチプラットフォームに解析するというのは、どういう意味ですか?

<木村>今回はTogetter内の複数のデータを組み合わせることによって、何が分かるかという観点で解析したということです。項目が違うプラットフォームでも、たとえば、Togetterのデータの代わりに、ある商品に関する購買データ、商品種類、価格帯を、ユーザーに関するデモグラフィック情報、年齢、性別などに置き換えることで解析ができます。

4月27日、駒沢大学で4月27日、駒沢大学で
<西田>そのTogetter内の複数のデータの解析は、どこに新しさや特徴があるのですか?

<木村>解析手法に新しさがあります。そのポイントは2つです。1つ目としては、ユーザーと記事という行列を1つのデータとして解析するというのはありふれていますが、複数の属性の行列を、3、4つ同時に解析するという点です。

 2つ目は、非常に大きなサイズの行列であっても,中に入っている0でない要素はごく少数であることが多く、このような行列からから有意な知見を見いだして、スケールさせることができる点です。

<藤代>例えば、楽天かアマゾンの詳細なデータとこの手法を組み合わせることにより、異なる知見を導き出せるということですか。

<木村>そうです。

<山口>マルチプラットフォームの解析によって、何がよくなるのでしょうか。例えば画期的に商品とユーザーとマッチングがすすむということでしょうか。

<木村>この手法を用いると「あなたに近い属性の人は、このようなものを買っています」という「属性」を用いたマッチングができます。アマゾンはアイテムベースでのアイテムとアイテムにひもづいたレコメンドに過ぎません。データマイニングで注意しなければならないのは、分析対象に依存し、用いるデータベースによっては全く結果が異なるケースが多い点です。

<山口>例えば「あなたはこの日は車に乗ってはいけない」など未来のことも分かるのでしょうか。

<木村>できることは「過去の事例に基づいた予測」だと考えてもらうと分かりやすいかもしれません。未来予測は簡単ではありません。

モノではなく、ヒトの画像認識は発展

<藤代>事例G(連載<1>参照)のGoogle glassの紹介動画の際に、オンラインとリアルで人がつながるという言及がありましたが、動画のような未来はいつ頃に実現可能だと思いますか?

<木村>ソーシャルメディアとリアルの連携はすぐにでも可能ですが、Google glassが普及するかどうかは分からないので、お答えするのが難しいです。技術的には可能ですが、問題は、みんながGoogle glassを受け入れるような社会になるかどうかです。

<藤代>画像認識の技術ですが、現状どの程度の個人属性、性別や年齢などを認識できますか。Google glassのようなウェアラブルデバイスだけでなく、監視カメラも既に街中にはあります。監視カメラではどの程度分かるのでしょうか。

<木村>監視カメラの場合、カメラの背景が固定されています。人の顔を当てるのはある程度可能で、人の属性も一部分かります。最近だと例えば、複数の監視カメラで視野を監視することで、人の特定まではできない場面でも、どの人とどの人が一緒のグループか、トラックできます。東京駅、品川駅など複数のカメラがありますが(服を脱ぐなどしなければ)、カメラをまたぐ形で認識できます(参考:「サーベイ:視野を共有しない複数カメラ間での人物照合」 )。人の認識技術はだいぶ進んでいますが、「モノ」が相手だと判断が難しいですね。

<藤代>人の顔を認識するよりも、モノを認識するほうが難しいということですか。

<木村>画像認識の技術は、人に関しては特異的に発展しています。画像認識の技術も、基本的にはユーザーのニーズから生まれてきています。人の画像認識は犯罪防止、セキュリティなど生活基盤の問題でもあり、発展してきました。モノに関してはニーズが明らかではない部分があります。人のほうがパーツの制約によって見つけやすい。たとえばペットボトル1つとっても、販売点数が多く、多様性がありすぎます。

<一戸>監視カメラの映像から、特定のお茶のペットボトルを認識させることはできそうな気もします。

<五十嵐>(特定のお茶のラベルに)それに特化したシステムを作ることは可能です。

<伊藤>(屋内での位置情報を計測する)事例D(連載<1>参照)のWifiの精度については、どの程度の距離で可能なのでしょうか。

<木村>数十センチ~数メートルです。どれくらいの密度・個数でWifiの機器がそこに置かれているかによります。数センチの範囲ではBluetoothのほうが得意かもしれません。Wifiの一般的な精度はFoursquareのレベルを想定してもらえればいいでしょう。人にそうした機器を持ち歩いてもらえば、動きのトレースも可能です。

<伊藤>例えばWifiの技術を応用した出席確認のようなシステムは可能ですか。

<木村>可能ですが、その際は人にデバイスを付けてもらうなどしたほうがよいかもしれません。

<山口>Google glassが普及する上で電池性能が重要だと思っているのですが、解決方法をどう考えますか。

<木村>どういう風に(Google glassの)デバイスシステムを構築するかによると思います。位置同定の記録および、映像を記録することを「どうサボるか」が重要になると思います。Google glassの動画をみると、位置同定に関してはずっと取得してないといけなさそうです。PlaceEngineと並行して、周りに常にwifiがあるような環境ならいいかもしれない。間隔システムとでもいうような。

生物分布をクラウドソーシングで把握

<生貝>現在、山でiPhoneで撮った植物や昆虫の写真をクラウドにアップロードして解析して、生物分布の把握や新種発見などを可能にするためのプロジェクトを進めています。しかし、花びらや羽の枚数が同じなどの場合にはうまく自動識別・同定ができず、Amazon Mechanical Turkのような人手を介したシステムに可能性を感じています。そうした「人が機械をサポートする」タイプの方法論の研究は現在どの程度、進んでいるのでしょうか。

<木村>ご存じない方のために一応説明しておきますが、Amazon Mechanical Turkというのは、ある簡単な質問を入力させるようなクラウドソーシングを行うためのプラットフォームで、このクラウドソーシングを使った研究が最近、一気に増えています。細かで単純な仕事をものすごくたくさんの仕事を人ばらまいて集積させると(昔の新聞の入力、ペットボトルの種類のタグ付け、建物の位置情報の修正など)、データベースが効率的に構築できます。

<生貝>やはりクラウドソーシングに参加してもらう上で問題になるのは、インセンティブやモチベーションなんですよね。もちろんお金を払うというのが一番シンプルなのでしょうが、一方で、例えばBe Extra!というiPhoneアプリは、慈善団体のクラウドソーシングを集積することで、慈善活動への貢献をモチベーションとして打ち出しています。

<木村>サービスをやる側としては金を払わない方法が一番です(笑)。でも、多くの場合はお金が与えられるのが現状ですね。ゲーミフィケーションや社会貢献をモチベートさせるような仕組みが必要ですね。

<伊藤>Yahoo!Japanは、クラウドソーシング事業を2013年1月に開始しました。報酬は少額のポイントという形でしたが、利用者が殺到し、すぐに用意していた仕事が不足する状態になりました。精度に関しては、複数の仕事を複数の人に行ってもらうことなどで正確性を担保する方法をとっているようです。

<木村>クラウドソーシングの場合、報酬を得るためだけにいい加減にしか答えを出さない人がいることを考慮するべきです。

<伊藤>それを排除するために、10問に1問ほど簡単なテスト問題を設けて対策するケースがあるようです。

<五十嵐>楽天アンケートでも「この問題は右を付けてください」などの問題を設定して、対策をとっているアンケートをよくみかけます。

<藤代>クラウドソーシングの登場で、少額で細かな作業を分担できるようになり、膨大なデータの蓄積や修正、サービスの改善が可能になってきたということですね。私もNTTレゾナントに在籍していた頃に、NTT研究所の皆さんと一緒に研究開発に取り組むことがあったのですが、研究レベルは高くてもサービスを持っていないのでユーザーからフィードバックを得ながら精度をあげていくといったことが難しかった記憶があります。こうした問題も、クラウドソーシングを使うことでクリアできると思います。

<木村>実際に、実は機械がやっているように見えてクラウドソーシングで回していたというサービスは実はありますね。
(参考1: 写真を送るだけで栄養のプロが食事内容を解析するサービス「撮って栄養」
(参考2: MealSnap - Calorie Counting Magic

<亀松>ウェアラブルデバイスにサーモグラフィーなど温度情報を加えると、どのような情報解析に使えると思うか、可能性を聞きたいです。

<木村>温度に関しては、あまり聞いたことがないのですが可能性はあると思います。

<亀松>インフルエンザの拡散状況を示す事例B(連載<1>参照)を説明してもらいましたが、そこにサーモグラフィーで取得した情報も載せると精度が上がりそうです。

<藤代>ボストンマラソンでの爆発事件の捜査でも、サーモグラフィーで容疑者を発見していましたね。通報を受けて容疑者がいると見られるヨットをヘリコプターのサーモグラフィーでスキャンして確認したそうです。

<吉川>農水省では、農作業で篤農家の技術を継承するために、篤農家がどこを見ているかを判別するカメラを搭載した眼鏡や腕にセンターをつけて、農作業の動作を記録するという、AI(Agri-Infomatics)農業という取り組みもあります。うまくやっている人間の動きを記録して再現させるという取り組みです。

<生貝>僕はある意味で、ライフログサービスというのはすべからくAmazon Mechanical Turkなのだと考えています。私たちがライフログを提供する誘因は、お金だったり無料サービスだったり、あるいは単純な楽しさだったりします。先ほどクラウドソーシングの文脈で、作業の正確性をどうやって担保するかが話題になりましたが、ライフログの進展の障壁になっているのは、むしろそこに集積される記録の恐るべき正確性なんですよね。だからそこにはフェイクやダブル、あるいはペルソナといったものを積極的に組み込んでいく必要がある。要するにプライバシーの問題なのですが、その点についての最近の技術的アプローチにはどのようなものがあるのでしょうか。

<木村>顔や衣類を、モザイクで隠すというのは一つかもしれません。対抗技術としての「プライバシーを守る技術」です。社会問題が明らかになることにより、そうした技術も進むと思います。現在、プライバシーが暴かれているという意識を持った人はあまり多くないため、対策も多くない状態です。一方でウェブ上では基本的に個人情報が抜かれている可能性を考慮したほうがいいのが実態です。

ネタバレ部分をぼかして伝える

<五十嵐>少し話はずれますが、文字情報のレベルでは、作品のあらすじだけが知りたいけれど、感想やネタバレする記事に対して、

・・・ログインして読む
(残り:約2072文字/本文:約7164文字)