時間の戦略とデータドリブン

By @pengin.two11/3/2017pengin-philosophy

最近読んだ本で、時間の戦略という概念が出てきました。

時間の戦略というのを僕風の解釈でいうと

「プロダクトを改善サイクルの集合体と見なし、その改善サイクルを速くまわすことを優位性とする」戦略です。

例えばGoogleを例に考えてみましょう。Googleというプロダクトは検索エンジンといえるかもしれません。時間の戦略でみたときのGoogleは検索エンジンではなく、過去どういうABテストをまわしてきたのか、どのようなロジック変更やUI/UX変更をしてきたのかという改善サイクルの集合体と見なすのです。そしてそのサイクルの速さによりプロダクト価値を競合よりも高め、優位性を築くのが時間の戦略です。

現代はデータの時代といわれています。データをうまく活用している会社は、まさにこの時間の戦略を活用している会社と考えられます。

データのよる時間の戦略は、1. データによる意思決定精度の向上 2. データによるスケールメリット の二つがあると考えています。

個人的には世の中のほとんどの会社はデータを使えていないという認識なので、私がみてきた会社の中で最もデータをうまく使えてる会社を念頭においてこの2つを説明したいと思います。

そのまえに前提として 「データとはファクト志向のための最高のツールである」 という話をしたいと思います。

「データとはファクト志向のための最高のツールである」

時間の戦略を考える上で、最も需要かつ前提となる姿勢は「ファクト志向」があると思います。「データ志向」ではありません。

なぜファクト志向なのか。それは単純で、プロダクト改善サイクルを早くするためにはファクトに忠実に決めていくことが最も大切だからです。ファクトに近づくのであれば、それが勘によるアプローチであろうが、経験だろうが、データであろうが、人手であろうが、アルゴリズムであろうが、労働集約であろうが、資本集約であろうがなんでもかまいません。一番早くファクトにたどり着くことが大切です。

ここでいうファクトとは、プロダクトの持つ仮説に対する真実、つまりユーザーはなにを欲していて、その欲しているものを満たす度合いが向上しているか、がファクトです。

ではデータがなぜファクトを見つけるのに対して有用なのでしょう。それもまたシンプルでデータとはユーザー(ここでいうユーザーはプロダクトの受益者)の行動を直接的に表したものだからです。全体はカバレッジできていないがそれでも絶対的なユーザーの真実なのです。もちろんデータで見えないこともありますが、勘よりはbetterです。そもそも見えないことがあるなら見えるように指標を再設計しデータを集めればいいのです。

時間の戦略での根本となるのは「継続的な改善サイクルをまわすこと」による改善です。データに基づかない改善は運良く改善されることもあれば当然改悪されることもあります。改善の方向性に再現性がなくなる、または著しく人に依存するためスケールしなくなります。この一点を持ってしてデータは勘より有用であるといえます。

データ志向というのは現存する手法のどれよりも「ファクト志向」であり、「ユーザー志向」であるといえます。言い方を変えると、データをうまく活用することで、競合企業よりも速くファクト(=ユーザー満足度の向上)にたどり着くことが可能です。

では次に具体的に2つの視点(「データによる意思決定精度の向上」「データによるスケールメリット」で見てみましょう。)

「データによる意思決定精度の向上」

なぜデータによる意思決定でファクトにたどり着くのが速くなるのでしょうか。

またもやGoogleを例にとってみましょう。ある日Aさんはすごく単純な仮説が思い浮かびます。検索結果は地域によって変えるべきなのではないか。と

データドリブンでない組織は「いいじゃんやってみよう!それは筋のいい仮説だよ!」といって声の大きさで施策が決まってしまいます。

一方データドリブンであるチームはまず何をするでしょう。検索結果は地域によって変えるは、裏の仮説として、その地域の情報はその地域でクリックされやすいという仮説があるでしょう。となると過去からなずGoogleのデータには「検索したとき、たまたまその検索結果に検索した地域の情報が含まれてる場合」と「含まれてない場合」の行動ログが残っているはずです。データドリブンなチームはそこのクリック率の差異を分析し、例えばクリック率に10%ほどの違いがあることを発見します。話はここで終わりません。またとある人Bさんがつぶやきます。「最近サイトのレスポンスが遅いなあ、これはやくしたほうがいいんじゃない?」

データドリブンなチームではそうなるとすぐ次のような動きをします。「サイトのレスポンス速度がxxxms以上の行動ログ」と「xxxms未満の行動ログ」をしらべようと。(xxxは欲しいパフォーマンスと現実的な達成実現性によって変えるものとする)。調べた結果、レスポンス速度をxxxms未満に押さえられると、クリック率が20%も改善することがわかりました。このときデータドリブンなチームは迷わず、Bさんの意見を採用します。(ここでは簡単のためAさんの施策とBさんの施策にかかる工数は一定とします。実際は工数や適用できる規模などを考えより勝率が高い方を選択するでしょう)

このようにデータを使い施策の意思決定精度を上げることで、競合よりもはやく「真実」にたどりつけます。

「データによるスケールメリット」

もう一つわかりにくいところで、また一番大きいところでデータによるスケールメリットというものがあります。
今後世の中のソフトウェアにはすべてアルゴリズムがはいります。そして競争優位性やプロダクトの価値の多くはアルゴリズムが決めていくことになります。

アルゴリズムの改善は基本的にはデータの増加とともに改善がされていきます。
またその改善度合いを確かめるには現状オフラインテストでは不十分でオンラインテスト(いわゆるA/Bテスト)をしないといけません。

そのためデータによるスケールメリットは2つの意味で暴力的です。1つはデータが増えれば増えるほど改善されるというもの、もう一つはデータが速く集まれば集まるほどより早くオンラインテストを実施できることでより早い改善サイクルが回ることです。

現代のアルゴリズム開発で最もボトルネックなのが「仮説の構築」なのです。仮説だけはまだ人間が考えなければなりません。ですのでその仮説を考え早く実験し、仮説構築に対して知見を得ていくのが早い会社ほど優秀なアルゴリズムを構築できるのです。データがあればあるほど有利というだけで、データがあるだけでもだめだし、アルゴリズムだけあってそれを検証するデータが足りてないでもだめなのです。両輪なのです。

以上どうでしたでしょうか。これらの真に恐ろしいことは、外から見るとデータがいかせてるのかいかせてないのかわからないこと。つまり模倣可能性が非常に低いことにあります。しかし世の中は既に実際にデータをうまく使えてる会社は使えてない会社で、それこそ桁違いの速さでプロダクト改善サイクルをまわしてます。

データを制するものが今後100年のソフトウェア産業を制すると私は考えています。それを一緒に実現する仲間を常に求めていますので、もし興味がある方はDMなりでコンタクトをとってくれると幸いです。

今回は少しまともな記事を書いた気がするので収益が上がりますように。Just For Fun.

8

comments