[Kernel density estimation - Wikipedia](https://en.wikipedia.org/wiki/Kernel_density_estimation) > 統計学において、カーネル密度推定(KDE)は、[[確率変数]]の[[確率密度関数]]を推定するノンパラメトリックな方法である。カーネル密度推定は、有限のデータサンプルに基づいて母集団に関する推論を行う、基本的なデータスムージング問題である。信号処理や計量経済学などの一部の分野では、現在の形を独自に作り上げたとされるEmanuel ParzenとMurray Rosenblattの名前をとってParzen-Rosenblatt窓法とも呼ばれる[1][2]。 カーネル密度推定の有名な応用例として、ナイーブベイズ分類器を用いた場合のデータのクラス条件付き周辺密度を推定し、その予測精度を高めることができる[3][4]。 [カーネル密度推定](https://rinsaka.com/python/kde.html) > カーネル密度推定 (Kernel Density Estimation/核密度推定,核型密度推定) はノンパラメトリック推定のひとつで[[教師なし学習]]に分類されます.データの背後にある真の分布の形状([[正規分布]]や[[指数分布]],[[ガンマ分布]]など)を仮定することなく,僅かな数のデータしか得られないような状況でも比較的高精度に確率密度関数を推定でき,データ数が無限大になれば真の確率分布に一致するという特長があります. > つまり,カーネル密度推定では観測データ一つひとつに対してカーネル関数を用いて「コブ」を作成し,このコブを足し合わせることで密度関数が得られます. --- [カーネル密度推定(KDE: Kernel Density Estimation)をpython (numpy)で実装・整理してみる - Qiita](https://qiita.com/shokishimada/items/f630a20099e8e4bdc2f7) [[データ解析 第十回「ノンパラメトリック密度推定法」 - 東京大学]] ## Libraries [Introduction — kalepy 1.4.3 documentation](https://kalepy.readthedocs.io/en/latest/index.html)