機械学習ABテスト データ分析講座(その204)

 

 

最もシンプルなデータ活用の1つがABテストです。A案とB案のどちらがいいのかをデータで判断する、という感じのデータ分析・活用(データサイエンス実践)です。この地味な、データ分析・活用(データサイエンス実践)は、明日からでも使えるものです。古くは実験計画法・分散分析として、統計学的なメソッドの1つとして名を馳せていました。今では、デジタルマーケティングの世界の必須メソッドの1つです。統計学的な手法を用いるABテストですが、最近では機械学習的な手法を活用することも増えています。

今回は、「機械学習ABテスト」というお話しをします。

◆関連解説『情報マネジメントとは』

【目次】

1.ABテストとは?
(1)従来の統計的アプローチ「2標本検定」
(2)統計的アプローチの限界
(3)3つの数理モデル(アルゴリズム)
(4)2標本検定(例:zスコア、t検定)の場合
(5)線形回帰
(6)決定木(ディシジョンツリー)
(7)XGBoostやLightGBMなど
2.使い分け例

 

1.ABテストとは?

 

 

デジタルマーケティングの世界では、例えば……

 

 

……などを決めるときに活用したりします。あらかじめA案とB案を考えておき、どちらがいいのかをデータで判断します。ABテストを拡張したものが多変量テストです。デジタルマーケティングではなく別の領域では、実験計画法・分散分析・多重比較・コンジョイント分析などと呼ばれていたものです。

 

(1)従来の統計的アプローチ「2標本検定」

従来の実験計画法・分散分析・多重比較・コンジョイント分析などでは、主に統計学的なアプローチを用います。ABテストも同様です。2標本検定(例:zスコア、t検定)という統計的な手法を使うことが多いです。2標本検定(例:zスコア、t検定)とは、2つの母集団(処理群と対照群)の平均などの差を検定することです。

 

 

例えば、元のランディングページを見せるサイト訪問者を「対照群」、新しいランディングページを見せるサイト訪問者を「処理群」、処理群と対照群を比べて問い合わせや購入などの割合であるCVR(コンバージョンレート)が異なるかどうかを検討します。2つの母集団(処理群と対照群)と、難しそうな用語を使いましたが、要は2つのグループ(A群とB群)を比較し検討するということです。

 

(2)統計的アプローチの限界

2つの母集団(A群とB群)を比較するとき、あるポイントに絞って単純化して比較しています。しかし、現実世界は複雑です。例えば、ランディングページに訪問者の背景(性年代・趣味・価値観など)は異なりますし、ランディングページに滞在する時間も異なります。

 

(3)3つの数理モデル(アルゴリズム)

 

 

2標本検定(例:zスコア、t検定)による統計的アプローチによるABテストは、今でも有効です。2標本検定(例:zスコア、t検定)に次の3つの数理モデル(アルゴリズム)を付け加えると、より良くなります。

 

 

解釈性や複雑性は私の主観ですが、大きくは間違ってはいないかと思います。ここで使っている解釈性とは、結果が解釈しやすく他者に説明のしやすさです。ここで使っている複雑性とは、どれだけ複雑な状況をモデル化できるかとというものです。

 

この3つの中では、「線形回帰」が最も簡単な数理モデル(アルゴリズム)で、「XGBoostやLightGBMなど」が最も難しい数理モデル(アルゴリズム)になります。上から順番に実施していきます。簡単なものから始めるということです。

 

(4)2標本検定(例:zスコア、t検定)の場合

 

 

2標本検定(例:zスコア、t検定)の場合、A群とB群の目的変数Yを集計(平均値など)し比較するだけです。目的変数Yとは、着目している指標で、問い合せ者数や購入者数、購入金額などです。目的変数Yと一緒に登場するワードに、説明変数Xというものがあります。

 

説明変数Xとは、目的変数Yに影響を与えるであろう変数を指し、機械学習の世界では特徴量というワードで表現したりします。この場合の説明変数Xは、どの群に所属するのか(A群 or B群)を表現する変数(ここでは、群変数と表現します)のみになります。「線形回帰」で考えると、単回帰と呼ばれる数理モデルになります。

 

(5)線形回帰

 

 

「線形回帰」でABテストを実施する場合、最も簡単なものは次のような設定です。

 

 

これでは、2標本検定(例:zスコア、t検定)と本質的に変わりません。そこで、説明変数Xで扱う変数を増やします。重回帰と呼ばれる「線形回帰」の数理モデルです。2標本検定(例:zスコア、t検定)の場合と異なり、群変数(A群 or B群)の影響を以外を分析対象にします。

 

「線形回帰」の結果、目的変数Yを左右しているであろう説明変数Xが分かります。正直ここまででもいいかもしれません。やるべきことの方向性が見えてくるからです。しかし、あくまでも直線的な線形の関係性しか分かりません。より複雑な関係性(直線的な線形の関係性を超える関係性)を知ることで、何をすべきかがより具体的に分かりやすくなります。

 

例えば、「もし説明変数Xを〇〇だけ変化させると、そのとき目的変数Yは〇〇だけ変化する」という実行ルール(If-Thenルール)が欲しいところです。If-Thenルールを抽出するための手法の1つが「決定木(ディシジョンツリー)」です。

 

(6)決定木(ディシジョンツリー)

「線形回帰」の次に「決定木(ディシジョンツリー)」を実施します。「決定木(ディシジョンツリー)」の目的変数Yと説明変数Xは、「線形回帰」と同じで構いません。「決決定木(ディシジョンツリー)」を実行すると、If-Thenルールを表現するツリーが手に入ります。このことから、「もし説明変数Xを〇〇だけ変化させると、そのとき目的変数Yは〇〇だけ変化する」という実行ルール(If-Thenルール)を得ることができ、目的変数Yををより良くするために何をすべきかが見えてきます。

 

「線形回帰」との大きな違いは、「決定木(ディシジョンツリー)」の場合には説明変数Xをどうすべきかが組み合わせで分かることです。

 

 

何をすべきかが分かることは非常に大きいです。どうせなら、未来を高精度で予測したいものです。

 

(7)XGBoostやLightGBMなど

 

 

木(ツリー)が、たくさんあると森(フォレスト)になります。「決定木(ディシジョンツリー)」を、たくさん作って予測に活かそうという数理モデル(アルゴリズム)が、ランダムフォレストという数理モデル(アルゴリズム)です。

 

ランダムフォレストを発展させたのが「XGBoost」で、「XGBoost」を発展させたのが「LightGBM」です。どれを使ってもいいですが、「XGBoost」ぐらいがちょうどいいかもしれません。

 

現実的には「XGBoost」を解釈し実行ルール(If-Thenルール)を見出すのは至難の業です。ただ、「線形回帰」や「決定木(ディシジョンツリー)」に比べ、予測精度が高いです。

 

目的変数Yと説明変数Xの複雑な関係性をモデル化しているからです。

 

一様、「XGBoost」などにも、特徴量重要度(Feature Importance)や、SHAP(SHapley Additive exPlanation) などの予測貢献度などと呼ばれる指標を出すことが出来ますが、実行ルール(If-Thenルール)という感じではありませんし、まだまだ発展途上の分野です。

 

モデルが重要視している特徴量(優先して改善を図るべき特徴量)
  • 予測貢献度:個々の予測結果に対して特徴量がどの程度貢献(寄与)しているのかを表した指標
  •  

    分かりにくいかもしれませんが、SHAPなどの予測貢献度は、個々の予測結果によって当然変化します。

    例えば……

     

    • Aさんの購入金額の「予測結果Y1」に対し特徴量X1が大きく貢献(寄与)
    • Bさんの購入金額の「予測結果Y2」に対し特徴量X2が大きく貢献(寄与)

     

    ……など。特徴量重要度(Feature Importance)の場合には、目的変数Yに対し説明変数X1とX2が重要だよ、ということが分かります。

     

    2.使い分け例

    • 線形回帰:どうすべきかの方向性を理解する
    • 決定木(ディシジョンツリー):具体的にどうすべきかを知る
    • XGBoostやLightGBMなど:その結果どうなりそうかを予測する

     

    予測精度は通常……

    • 線形回帰≲決定木(ディシジョンツリー)≲XGBoostやLightGBMなど

    ……の順にどんどん右に行くほど良くなってきます。

     

    「線形回帰」や「決定木(ディシジョンツリー)」と比べ「XGBoostやLightGBMなど」の予測精度が同じぐらいであれば、実務では「線形回帰」や「決定木(ディシジョンツリー)」で十分です。

     

     

    ↓ 続きを読むには・・・

    新規会員登録


    この記事の著者