『機械学習を解釈する技術〜予測力と説明力を両立する実践テクニック』を読んだ感想

『機械学習を解釈する技術〜予測力と説明力を両立する実践テクニック』を読んだ感想

本の感想ではあるものの、久々にデータサイエンス系を投稿します。

今年に入ってから現場へのデータ活用推進やデータ整備を担当するようになったため、データサイエンス系の業務から長いこと離れていました。
とはいえ、頭の片隅ではデータサイエンス系の知識をキャッチアップできていない焦燥感みたいなものがありました。

そんな折、久々に書店に立ち寄った際に気になる本を見かけたので思わず本書をポチってしまいました。

以前、『はじめてのパターン認識』(通称:『はじパタ』)を参考に「部分依存グラフ」や「近接グラフ」の記事を書きましたが、『はじパタ』ではこの解釈手法以外についての詳しい記述はありませんでした。


一方、この『機械学習を解釈する技術〜予測力と説明力を両立する実践テクニック』ではタイトル通り機械学習モデルの解釈手法に特化していて、体系的な説明がなされています。

本書で紹介している機械学習モデルの解釈手法であるPFI, PF, ICE, SHAPは、ニューラルネットや決定木ベースのアンサンブルといったあらゆるモデルに適用可能です。
「モデルの予測結果に対してどの特徴量が重要度なのか」といったマクロな視点から、「各サンプル単位でなぜモデルがその予測値を算出したのか」といったミクロな視点まで説明可能になります。

荒っぽく言えば、本書で紹介されている解釈手法を利用することで、ブラックボックスなモデルでも回帰モデルと同程度の解釈力・説明力を担保できるようになります
説明力を担保するために予測精度を犠牲にするというトレードオフがなくなるわけです。

LightGBMなどの決定木ベースアンサンブルモデルは予測精度は高いけど説明力に欠けるから意思決定者にうまく説明できず、結局シンプルな回帰モデルしか利用できていないという方は一読の価値ある本だと思いました。