プロフィール
谷藤友彦(やとうともひこ)

谷藤友彦

 東京都城北エリア(板橋・練馬・荒川・台東・北)を中心に活動する中小企業診断士(経営コンサルタント、研修・セミナー講師)。2007年8月中小企業診断士登録。主な実績はこちら

 好きなもの=Mr.Childrenサザンオールスターズoasis阪神タイガース水曜どうでしょう、数学(30歳を過ぎてから数学ⅢCをやり出した)。

◆旧ブログ◆
マネジメント・フロンティア
~終わりなき旅~


◆別館◆
こぼれ落ちたピース
シャイン経営研究所HP
シャイン経営研究所
 (私の個人事務所)

※2019年にWordpressに移行しました。
>>>シャイン経営研究所(中小企業診断士・谷藤友彦)

Next:
next 【ベンチャー失敗の教訓(第5回)】とにかく形から入ろうとする社長
Prev:
prev 『リーダーは未来をつくる(DHBR2012年11月号)』―共有価値観で結ばれた利害関係者の生態系
2013年02月14日

『ビッグデータ競争元年(DHBR2013年2月号)』―逆説的に重視されるようになる「直観」


Harvard Business Review (ハーバード・ビジネス・レビュー) 2013年 02月号 [雑誌]Harvard Business Review (ハーバード・ビジネス・レビュー) 2013年 02月号 [雑誌]

ダイヤモンド社 2013-01-10

Amazonで詳しく見る by G-Tools

 『DIAMONDハーバード・ビジネス・レビュー』2013年2月号の特集は、今注目のビッグデータ。私の勝手な思い込みかもしれないが、ビッグデータというと、とりあえずデータを何でもいいからコンピュータに突っ込んで、BI(Business Intelligence)ツールなどを使い、コンピュータの高い処理能力に任せてゴリゴリと分析を行うイメージがあった。しかし、今月号を読むと、ビッグデータを使いこなすには、逆説的だが人間の「直観」の力が重要になるような気がした。

 ビッグデータの活用に関しては、2つの段階で直観が重要になる。1つ目は「仮説を設定する段階」である。企業がビッグデータを活用するのは、「AならばBである(可能性が高い)」という因果関係を導くためである。「○○という天候の日には、売上が高くなる」、「社員は○○という職場状況に置かれると、高いパフォーマンスを発揮する」といった具合だ。これは単純な例だが、Aは通常、複数の変数を含む複雑な条件になる。例えば、「○○月のある日の最低気温が平年より○○度下がった場合、携帯クーポンのメイン商品を○○に変更し、クーポンの配信時間を○○分遅らせ、さらに○○というWebサイトにおけるバナー広告を組み合わせた方が、店舗におけるクーポン利用率が上がる」という、複雑な条件である。

 こうした複雑な条件を導くためにBIツールの力を借りて全テータに分析をかけるのもよいが、実は人間が直観を働かせて、「今まではあまり注目していなかったけれども、もしかしたら○○という要素と△△という要素の間に因果関係があるのではないか?」と推論して仮説を組み立てていくことが重要になる。編集工学を専門とする松岡正剛氏は次のように述べている。
 データ情報の解析が大きな価値を持つということは、そこから大いなる「意味の束」が引き出せて、その「意味の束」からいくつかの社会的あるいは市場的な「物語の可能性」が読み取れていくことでなければならない。それにはビッグデータを扱う以前に、いったい大量の情報の群から何を獲得し、どんな構想や行動の方針を確立したいのかという仮説があらかじめ先行しているべきである。言い換えればビッグデータには、そこからもたらされる意味を得るための仮説が先行して必要であるということだ。

 編集工学では、このように仮説を先行させることを「アブダクティブ・アプローチ」と呼んでいる。アブダクションは記号学者チャールズ・パースが提案したもので、演繹法でも帰納法でもない推論的思考のことをいう。別名、レトロダクションともいわれるように、アブダクティブ・アプローチによって情報編集するに当たっては、まずは仮説のための柔らかい構造を立てて、そこへいったん各種のデータや材料をイコン、インデックス、シンボルなどに分けて投入しておき、後に推論が最終段階に差しかかった時にこれらを再帰入させて推論編集を仕上げていくという方法を取る。
(松岡正剛「ビッグデータ時代の編集工学 情報は物語をほしがっている」)
 人間が仮説を立案し、それを実証するためにビッグデータを活用するという流れは、結局のところ科学の王道である。技術が進化したからと言って、王道がひっくり返るわけではない。

 もう1つは「データを集約する段階」である。ビッグデータに関して注意が必要なのは、情報が多くなれば「情報価値」は大きくなるものの、「情報密度」は小さくなるという点である。統計数理研究所所長の樋口知之氏は次のように警告している。
 従来のように、たとえばサンプル数が100で、体重と身長のように検査項目が2つであれば、x軸とy軸という2次元で100個の点の散布図が描けます。その程度であれば、何らかの意味づけが簡単にできます。ところが、検査項目が10、すなわちデータの次元が10次元となるとどうでしょう。そもそも人間は3次元以上だとほとんど直感的なイメージが持てませんが、10次元のなかに100個の点があるということは、その空間は、一言で言うとスカスカなのです。

 もっと言えば、10次元の空間の自由度というのは、2次元の5倍(10÷2=5倍)の大きさかというと、そうではありません。実際は累乗的で、なんと1億倍(1010÷102=108倍)になるのです。(中略)現在のようなビッグデータの時代は、データの次元も自然に増えるので、データ量が多いほうが何かを正確に予測することが難しい、といった馬鹿げたことが起こります。
(樋口知之「統計学の第一人者が語る データ解析の神髄とは」)
 このような問題を避けるには、データの細分化ではなく、むしろ類似のデータを括ることで、空間のスカスカを減らすことが必要となる。そして、その括り方には人間の直観が活かされる。
 ある患者さん、ある消費者が、ある時点において、どのような行動を取るかを予想するためには、ある程度、これとこれは同じ条件のものとして扱いましょうなどと、自然な仮定や直観を投入することが突破口になります。

 たとえば、女性を1歳ずつ層別化にして全部データを取っていても細分化しすぎるから、5歳ずつに分けてざっくりとまとめてみましょう、ある変数とある変数は、これは似たような性質を示すから値をほぼ同一にしましょうと、足りない情報を補っていかなければなりません。私がいま言ったようなものは、主観に基づく一定の知識で、データのみの情報を補完しています。ベイズ統計ではこれを主観情報あるいは事前情報といいます。(同上)
 以前の記事「橋上秀樹戦略コーチの本まとめ読み―「巨人、日本一おめでとうございます」(棒)」では、野球にもビッグデータの波が訪れていることを書いた。野球では、状況別に的確な判断を次々に下していく必要があるが、その状況とは、ボールカウント、アウトカウント、ランナー、イニング、点差、攻守の組合せを踏まえると、

(1)ボールカウント・・・0-0から3-2までの12パターン
(2)アウトカウント・・・無死、1死、2死の3パターン
(3)ランナー・・・ランナーなし、1塁、2塁、3塁、1・2塁、1・3塁、2・3塁、満塁の8パターン
(4)イニング・・・1回から9回までの9パターン(ひとまず延長戦は除く)
(5)点差・・・同点、1点リード、2点リード、3点リード、1点ビハインド、2点ビハインド、3点ビハインドの7パターン(ひとまずそれ以上のリード、ビハインドは除く)
(6)攻守・・・攻撃と守備の2パターン

より、理論的には少なくとも「12×3×8×9×7×2=36,288パターン」以上が想定されることになる。ところが、この全てのパターンに当てはまるデータを収集しようとしても、両軍合わせて1試合あたり約300球、1年間で144試合だから43,200球という計算になり、データ空間はスカスカになってしまう。「全ての状況における傾向を見出すには、数十年分のデータが必要です」などと言おうものなら、ノムさんに一喝されるのは目に見えている。

 傾向を導くためには、データの括りをもっと大きくしなければならない。例えば、ある投手がピンチの場面でバッターを追い込むと、どの球種を選択する可能性が高いか?を分析するとしよう。この場合、その投手にとってのピンチの場面とは何か?を考える必要がある。同じ1点リードで2塁にランナーを背負ったケースであっても、ホームの試合で味方有利な場合には、味方の攻撃が少なくなる7回や8回になって初めてピンチと感じるかもしれない。対照的に、ロースコアの展開になりやすいナゴヤドームでビジターの試合をしている場合には、序盤から「同点にされたくない」との心理が働き、3回や4回でもピンチの時の投球をするかもしれない。それなら、両者を同じピンチの状況として扱うことで、サンプルデータの数を増やすことができる。

 また、バッターを追い込んだ場合の定義についても、例えばカウント1-2と2-2を同列に扱えば、データ空間を狭められる。どういう基準でデータを括るかは、その投手を現場で観察している選手やコーチの経験に頼ることになる。このようにデータ空間のスカスカを減らしていけば、データの傾向が見やすくなり、現場で使える因果関係を導くことが可能となる。

 ビッグデータは去年あたりからポンと出てきたキーワードであり、いわゆる「バズワード」で終わる可能性も否定できない。しかし、先日ローソンでCIOを務めた横溝陽一氏の講演を聞きに行った時、興味深い格言を教えてもらった。それは、「バズワードは忘れられた頃に有効になる」というものだ。横溝氏がローソンで力を入れていたのは、SCM(Supply Chain Management)の強化であったそうだ。SCMと言えば、アメリカでは90年代から存在するコンセプトであり、日本でも2000年代には有名になっていたと記憶している(何せ、当時就職活動をしていた私も、IT業界の旬のキーワードの1つとして覚えさせられたぐらいだ)。だが、横溝氏によれば、ローソンがSCMシステムを使いこなせるようになったのは、ようやく最近になってからだという。

 ビッグデータも、本領を発揮するのは10年後ぐらいかもしれない。それならば、今はビッグデータに着手しなくてもいいのではないか?競合他社に先行事例のコストを負担させて、自社は成功事例が蓄積された頃に取り組めばいいのではないか?という疑問を持つ方もいらっしゃるだろう。だが、ビッグデータは単なる技術ではなく、人間の直観のような、見えざる能力とセットになって初めて力を発揮する。そのような無形資産が組織に蓄積されるには、長い時間がかかる。その意味では、今からビッグデータに着手する意義は十分にあると言えると思う。

  • ライブドアブログ
©2012-2017 free to write WHATEVER I like