メインメニューをとばして、このページの本文エリアへ

続・脳とビッグデータが合わさるとどうなるか〜倫理観と社会制度が追いつかない

下條信輔 認知神経科学者、カリフォルニア工科大学生物・生物工学部教授

 スマート商法の裏にビッグデータがある。そこには「倫理的な不安もある」と、前稿で予告した。

「お客さまの年代や性別に応じて」飲み物を薦める、スマートな自動販売機

 先の飲み物自販機の例で言うと、たとえ顔を認識して「お薦め」を表示したからと言って、ただちに売り上げが伸びるはずはない。というのも、「お薦め」を見て仮に消費者が選択を変えても、1本分の売り上げに変わりはないからだ。

 ただ企業側としては、たとえば今イチ押しの新商品を「お試し」いただいて、ヒットにつなげるねらいはあるだろう。別の状況、たとえば店先で商品を手に取って見ている状況では、買う気がなかった人を買う気にさせることさえ、個人データを使えば可能かも知れない。その上その選択を、また次のためにデータとして使える。

 一方消費者側からみると、特にお薦めが(自分の好みに)図星だったりしたら、不気味さはいや増すことになる。

 ここで言う「不気味さ」は二重だ。個人情報が(無断で?)使われる。その不安が第一。それと同時に、そうした個人情報がどのように処理され、「心の中がどこまで読まれて」いるのか、素人には予見できない不気味さもある。

 ニュースで見る限り、先の自販機の例だと個人の顔や選択のデータは(法的、倫理的理由から)「あえて」保存していない。だが元々の目標が「個人に合わせて御奨めの精度を上げること」だとすると、そこには常に大きな誘惑がある。つまり

・・・ログインして読む
(残り:約2164文字/本文:約2736文字)