最近注目を浴びてきた説明可能AIとは データ分析講座(その203)

更新日

投稿日

 

 

機械学習で構築した数理モデルが、ブラックボックス化するケースは少なくありません。そのような中、最近よく聞くキーワードに「XAI」というものがあります。XAIとは「Explainable Artificial Intelligence」の略で、日本語では説明可能AIと表現されることが多いです。ちなみに、「説明可能AI」とは「AIが何かを説明してくれる」というわけではありません。

「説明可能AI」とは、予測に至るプロセスが説明可能になっている「機械学習で構築した数理モデル」のことです。そもそもAIとは何か? といい議論がありますが…… XAIのAIとは、数理モデルのことを言っています。今回は、「最近注目を浴びてきた説明可能AI(XAI、Explainable Artificial Intelligence)、ブラックボックスのホワイトボックス化」というお話しをします。

【目次】
1.DARPA XAI プロジェクト
2.ブラックボックスのホワイトボックス化
3.「説明可能AI」(XAI)の3つのアプローチ
(1)Deep Explanation
(2)Interpretable Models
(3)Model Induction
4.入門的なテキスト

 

1.ARPA XAI プロジェクト

ある米国の組織が「説明可能AI」(XAI)というワードを使い始めました。国防高等研究計画局DARPA(Defense Advanced Research Projects Agency)です。機械学習で構築する数理モデルは、精度を求めるとブラックボックスになりやすくなります。

 

ブラックボックスになるということは、解釈し難くなり説明し難くなるということです。しかし、使う側にとってはそれでは困ります。得体の知れないものを使うには、勇気がいります。「説明可能AI」(XAI)の本質は、納得感の提供と、人と機械のコラボレーションなのでしょう。

 

2.ブラックボックスのホワイトボックス化

 

データ分析

 

繰り返しになりますが、数理モデルは予測精度を追及するとブラックボックスになり解釈性が低くなる傾向あります。使う側にとって、意味不明なものを使うは気持ちの悪いものです。そのような中、社会的な要請として「説明責任」がAIサービス提供側に求められてきています。

 

そもそも、数理モデルを構築するデータ分析者やデータサイエンティスト、機械学習エンジニアにとって、数理モデルを改良するときに解釈しやすいほうが何かと便利です。

 

3.「説明可能AI」(XAI)の3つのアプローチ

「説明可能AI」(XAI)には、現在3つのアプローチがあります。※各アプローチ名の日本語訳は知りません。

  • Deep Explanation
  • Interpretable Models
  • Model Induction

 

(1)Deep Explanation

 

 

どちらかと言うと、ニューラルネットワーク型のディープラーニングで構築した数理モデルに対し行われるケースが多いです。例えば、特徴マップというものを作った後に、アテンションヒートマップというヒートマップグラフを作成し、視覚的に理解を助けるものです。手法としては、勾配ベースのハイライト法が有名で、色々なアルゴリズムが発案されています。

 

ちなみに、このヒートマップを専門外の人が眺めても、訳は分かりません。専門家向けのものです。専門家とは、その分野(機械学習というよりその活用領域)の専門家です。ヒートマップを見て、ピンとくる程度の専門家です。

 

(2)Interpretable Models

 

 

ブラックボックス化しやすい数理モデルではなく、ホワイトボックス型の数理モデルで頑張る! というものです。

 

ホワイトボックス型の数理モデルとは、例えば……

  • 線形回帰系の数理モデル(単回帰、重回帰、ロジスティック回帰など)
  • 決定木
  • ランダムフォレスト

……などです。

 

例えば、ブラックボックス型の数理モデルの精度と比べ、それほど悪くないホワイトボックス型の数理モデルを構築できるのならば、そのほうがいいよね! という感じです。手法としては、複雑な数理モデルを決定木で近似するBATreesが比較的有名です。ランダムフォレストで近似するdefragTreesというのもあります。

 

(3)Model Induction

主に、説明モデル(explanatory model)の数理モデルを使って説明する方法です。

 

説明モデル(explanatory model)という概念自体は、昔からあり医学系でよく目にします。「説明可能AI」(XAI)では、「Additive Feature Attribution Methods」と呼ばれる数理モデル化した説明モデル(explanatory model)を使うケースが多いです。

 

例えば、心理学や経済学で登場するゲーム理論のシャープレー値(Shapley values)を応用したものなどが有名で...

 

 

機械学習で構築した数理モデルが、ブラックボックス化するケースは少なくありません。そのような中、最近よく聞くキーワードに「XAI」というものがあります。XAIとは「Explainable Artificial Intelligence」の略で、日本語では説明可能AIと表現されることが多いです。ちなみに、「説明可能AI」とは「AIが何かを説明してくれる」というわけではありません。

「説明可能AI」とは、予測に至るプロセスが説明可能になっている「機械学習で構築した数理モデル」のことです。そもそもAIとは何か? といい議論がありますが…… XAIのAIとは、数理モデルのことを言っています。今回は、「最近注目を浴びてきた説明可能AI(XAI、Explainable Artificial Intelligence)、ブラックボックスのホワイトボックス化」というお話しをします。

【目次】
1.DARPA XAI プロジェクト
2.ブラックボックスのホワイトボックス化
3.「説明可能AI」(XAI)の3つのアプローチ
(1)Deep Explanation
(2)Interpretable Models
(3)Model Induction
4.入門的なテキスト

 

1.ARPA XAI プロジェクト

ある米国の組織が「説明可能AI」(XAI)というワードを使い始めました。国防高等研究計画局DARPA(Defense Advanced Research Projects Agency)です。機械学習で構築する数理モデルは、精度を求めるとブラックボックスになりやすくなります。

 

ブラックボックスになるということは、解釈し難くなり説明し難くなるということです。しかし、使う側にとってはそれでは困ります。得体の知れないものを使うには、勇気がいります。「説明可能AI」(XAI)の本質は、納得感の提供と、人と機械のコラボレーションなのでしょう。

 

2.ブラックボックスのホワイトボックス化

 

データ分析

 

繰り返しになりますが、数理モデルは予測精度を追及するとブラックボックスになり解釈性が低くなる傾向あります。使う側にとって、意味不明なものを使うは気持ちの悪いものです。そのような中、社会的な要請として「説明責任」がAIサービス提供側に求められてきています。

 

そもそも、数理モデルを構築するデータ分析者やデータサイエンティスト、機械学習エンジニアにとって、数理モデルを改良するときに解釈しやすいほうが何かと便利です。

 

3.「説明可能AI」(XAI)の3つのアプローチ

「説明可能AI」(XAI)には、現在3つのアプローチがあります。※各アプローチ名の日本語訳は知りません。

  • Deep Explanation
  • Interpretable Models
  • Model Induction

 

(1)Deep Explanation

 

 

どちらかと言うと、ニューラルネットワーク型のディープラーニングで構築した数理モデルに対し行われるケースが多いです。例えば、特徴マップというものを作った後に、アテンションヒートマップというヒートマップグラフを作成し、視覚的に理解を助けるものです。手法としては、勾配ベースのハイライト法が有名で、色々なアルゴリズムが発案されています。

 

ちなみに、このヒートマップを専門外の人が眺めても、訳は分かりません。専門家向けのものです。専門家とは、その分野(機械学習というよりその活用領域)の専門家です。ヒートマップを見て、ピンとくる程度の専門家です。

 

(2)Interpretable Models

 

 

ブラックボックス化しやすい数理モデルではなく、ホワイトボックス型の数理モデルで頑張る! というものです。

 

ホワイトボックス型の数理モデルとは、例えば……

  • 線形回帰系の数理モデル(単回帰、重回帰、ロジスティック回帰など)
  • 決定木
  • ランダムフォレスト

……などです。

 

例えば、ブラックボックス型の数理モデルの精度と比べ、それほど悪くないホワイトボックス型の数理モデルを構築できるのならば、そのほうがいいよね! という感じです。手法としては、複雑な数理モデルを決定木で近似するBATreesが比較的有名です。ランダムフォレストで近似するdefragTreesというのもあります。

 

(3)Model Induction

主に、説明モデル(explanatory model)の数理モデルを使って説明する方法です。

 

説明モデル(explanatory model)という概念自体は、昔からあり医学系でよく目にします。「説明可能AI」(XAI)では、「Additive Feature Attribution Methods」と呼ばれる数理モデル化した説明モデル(explanatory model)を使うケースが多いです。

 

例えば、心理学や経済学で登場するゲーム理論のシャープレー値(Shapley values)を応用したものなどが有名です。ある数理モデルが出した予測結果を解釈するときにSHAP( SHapley Additive exPlanations)を使ったりします。

 

SHAPは、ある特徴量(説明変数X)がどれだけ予測に貢献したかを示す値です。

 

以下、SHAPを含めた手法一覧です。

・予測の根拠となった特徴量を提示

  • LIME
  • SHAP
  • Anchor

 

・予測の根拠となった学習データを提示

  • Influence

 

4.入門的なテキスト

「説明可能AI」(XAI)は最新の研究成果が、ぞくぞくと登場してきています。そこまでという方は、フリーのデータ分析ツールであるRのライブラー「iml」の著者によるものが非常に分かりやすいです。ちなみに、フリーで使えるRやPythonに、XAI関連のライブラリーがいくつかあります。

 

   続きを読むには・・・


この記事の著者

高橋 威知郎

データネクロマンサー/データ分析・活用コンサルタント (埋もれたデータに花を咲かせる、データ分析界の花咲じじい。それほど年齢は重ねてないけど)

データネクロマンサー/データ分析・活用コンサルタント (埋もれたデータに花を咲かせる、データ分析界の花咲じじい。それほど年齢は重ねてないけど)


「情報マネジメント一般」の他のキーワード解説記事

もっと見る
ABテストの代替、統計的因果推論の反実仮想アプローチ データ分析講座(その300)

  ABテストとは、例えばユーザをA群(処置群)とB群(統制群)に分け、どちらのほうが好成績を納めるのかをデータで確かめたりするアプローチ...

  ABテストとは、例えばユーザをA群(処置群)とB群(統制群)に分け、どちらのほうが好成績を納めるのかをデータで確かめたりするアプローチ...


サイバー攻撃事例、情報システムとの違い 制御システム(その2)

  【制御システム 連載目次】 1. セキュリティ脅威と歴史 2. サイバー攻撃事例、情報システムとの違い 3. リスク分析とセキュ...

  【制御システム 連載目次】 1. セキュリティ脅威と歴史 2. サイバー攻撃事例、情報システムとの違い 3. リスク分析とセキュ...


データ活用はPoVでデータビジネスはPoBで データ分析講座(その268)

  DXやAI、機械学習、データサイエンスというキーワードとともに、企業で実施されるようになったものの1つに、PoC(Proof of C...

  DXやAI、機械学習、データサイエンスというキーワードとともに、企業で実施されるようになったものの1つに、PoC(Proof of C...


「情報マネジメント一般」の活用事例

もっと見る
‐情報収集で配慮すべき事項(第3回)‐  製品・技術開発力強化策の事例(その11)

 前回の事例その10に続いて解説します。ある目的で情報収集を開始する時には、始めに開発方針を明らかにして、目的意識を持って行動する必要があります。目的を明...

 前回の事例その10に続いて解説します。ある目的で情報収集を開始する時には、始めに開発方針を明らかにして、目的意識を持って行動する必要があります。目的を明...


ソフトウェア特許とは(その2)

4.ソフトウェア特許のとり方    前回のその1に続いて解説します。    ソフトウェア特許の取得方法にはノウハウがあります。特許のことを知らない...

4.ソフトウェア特許のとり方    前回のその1に続いて解説します。    ソフトウェア特許の取得方法にはノウハウがあります。特許のことを知らない...


中小製造業のウェブ戦略

 中小製造業がウェブサイトを立ち上げる際、その目的として「自社の信用力を高めるための会社概要的な役割」と考える経営者も少なくない。しかし、当社のクライアン...

 中小製造業がウェブサイトを立ち上げる際、その目的として「自社の信用力を高めるための会社概要的な役割」と考える経営者も少なくない。しかし、当社のクライアン...