> 持っている情報の量に比べて過度に複雑なモデルを作ってしまうことを**過剰適合(overfitting)** *2という 。過剰適合は、訓練セットの個々の特徴にモデルを適合しすぎると発生する。訓練セットに対してはうまく機能するが、新しいデータに対しては[[汎化]] できないモデルになってしまうのだ。 [[📖Pythonではじめる機械学習]] --- [Overfitting - Wikipedia](https://en.wikipedia.org/wiki/Overfitting) > 統計学におけるオーバーフィットとは、「特定のデータセットにあまりにも密接または正確に対応する分析を行うことであり、そのために追加のデータに適合しなかったり、将来の観測を確実に予測できなかったりすること」である[1]。 オーバーフィットしたモデルとは、データによって正当化できる以上のパラメータを含む統計モデルのことである[2]。 オーバーフィットの本質は、残余の変動(すなわち、ノイズ)の一部を、その変動がモデルの基本的な構造を表しているかのように、無意識のうちに抽出してしまうことである[3]:45  --- <blockquote class="twitter-tweet" data-theme="dark" data-dnt="true" align="center"><p lang="ja" dir="ltr">overfit→過学習はちょっと違和感あるなぁと思っていたら、予想通りunderfit→学習不足・未学習という訳があるらしく、それは無いだろう感がすごい。<br>直訳でoverfit→過剰適合、underfit→過少適合がおすすめ。</p>&mdash; 須山敦志 Suyama Atsushi (@sammy_suyama) <a href="https://twitter.com/sammy_suyama/status/1390834725300830210?ref_src=twsrc%5Etfw">May 8, 2021</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script>