木下昇平

データサイエンティスト。自分用のアウトプットとして気が向いた時に記事を書いています。 …

木下昇平

データサイエンティスト。自分用のアウトプットとして気が向いた時に記事を書いています。 分析コンペ(特にKaggle)が好きです

最近の記事

機械学習を解釈する#02 PD

前回(1年以上前…)は機械学習を解釈する手法の1つであるParmutation Feature Importance(PFI)について説明しました。 今回は、特徴量と予測値の関係を知る手法であるPartial Dependence(PD)について紹介します! Permutation Feature Importance(PFI)の限界 Permutation Feature Importance(以下、PFI)は、任意の学習済みモデルに対して、ある特徴量の値をシャッフルした

    • 機械学習を解釈する#01 PFI

       近年機械学習の研究と開発が進み、機械学習をはじめたばかりの方でも簡単に精度の高い予測モデルを構築できるようになりました。具体的にはニューラルネットワーク、勾配ブースティング決定木、ランダムフォレストなどです。しかし、これらの手法は精度が高い一方で、線形回帰モデルなどの従来の統計モデルと比べて解釈性が低いという欠点を持っています。  そこで、今回は上記のモデルでも適用できる【特徴量の重要度を知る技術】について、紹介します! なぜ特徴量の重要度を知る必要があるのか 技術の説明

    機械学習を解釈する#02 PD