次元圧縮、次元縮約、特徴量削減とも呼ばれる。 > 教師なし学習には、次元削減 ※22(dimensionality reduction または dimension reduction)という サブフィールドもある。高次元のデータを扱うのはよくあることであり、観測のたびに大量の測定 値が記録される。機械学習のアルゴリズムを実行する記憶域や計算性能が限られていることを考えると、大量の値を処理するのは難題かもしれない。教師なし次元削減 ※23 は、特徴量の前処理にお いてよく使用されるアプローチの 1 つである。このアプローチでは、データからノイズを取り除き、 関連する大半の情報を維持した上で、データをより低い次元の部分空間に圧縮する。なお、ノイズによって予測性能が低下するアルゴリズムもある。 [[📖Python機械学習プログラミング 達人データサイエンティストによる理論と実践]] p.8 --- - [[t-SNE]] - [[UMAP]]