> データに標準正規分布の特性を与える特徴量のスケーリング手法。この特性は、勾配降下法による学習をよりすばやく収束させるのに役立つ。標準化は、各特徴量の平均をずらして中心が 0 になるようにし、各特徴量の標準偏差を 1 にする。
> たとえば j番目の特徴量を標準化するには、サンプルの平均 $\mu_{j}$ **をすべてのトレーニングサンプルから引き、標準偏差 $\tau_{j}$で割ればよい。
$
\newcommand{\bm}[1]{\boldsymbol{#1}}
\bm{x'_{j}} = \cfrac{x_{j} - \mu_{j}}{\tau_{j}}
$
> $x_{j}$ はすべてのトレーニングサンプルの j 番目の特徴量の値からなるベクトルである。 この標準化手法は、データセットの各特徴量 j に適用される。
[[📖Python機械学習プログラミング 達人データサイエンティストによる理論と実践]] p.41
---
ScikitLearnにpreprocessingパッケージに標準化ライブラリがある。
[6.3. Preprocessing data — scikit-learn 1.0.2 documentation](https://scikit-learn.org/stable/modules/preprocessing.html#preprocessing-scaler)