[Bias–variance tradeoff - Wikipedia](https://en.wikipedia.org/wiki/Bias%E2%80%93variance_tradeoff)
> 統計学や機械学習において、バイアスと分散のトレードオフは、モデルの複雑さと予測精度、そしてモデルの訓練に使われなかった未知のデータに対してどの程度予測できるかの関係を表す。一般的に、モデル内の調整可能なパラメータの数を増やすと、モデルはより柔軟になり、訓練データセットによりよく適合できるようになります。その結果、誤差やバイアスが小さくなると言われています。しかし、より柔軟なモデルの場合、新しいトレーニングデータセットを作成するためにサンプルを採取するたびに、モデルの適合度に大きなばらつきが生じる傾向があります。これは、モデルの推定パラメータの分散が大きいと言われます。