[Akaike information criterion - Wikipedia](https://en.wikipedia.org/wiki/Akaike_information_criterion) > 赤池情報量規準(AIC)は、与えられたデータに対する統計モデルの予測誤差と相対的な品質を推定するものです[1][2][3]。データに対するモデルのコレクションがあるとき、AICは他のモデルのそれぞれに対する各モデルの品質を推定します。したがって、AICはモデル選択のための手段を提供する。 > AICは情報理論に基づくものである。データを生成した過程を表現するために統計モデルを使用する場合、その表現が正確であることはほとんどなく、過程を表現するためにモデルを使用することによって、いくつかの情報が失われることになる。AICは、あるモデルによって失われた情報の相対的な量を推定し、失われた情報が少ないほど、そのモデルの品質が高いことを意味する。 > モデルによって失われる情報の量を推定する際、AICはモデルの適合度とモデルの単純さとの間のトレードオフを扱う。言い換えれば、AICはオーバーフィッティングのリスクとアンダーフィッティングのリスクの両方を扱う。 > 赤池情報量規準は、これを定式化した日本の統計学者、赤池弘次にちなんで命名された。現在では統計学の基礎となるパラダイムの基礎を形成しており、統計的推論にも広く用いられている。 Akaike, H., "Information theory and an extension of the maximum likelihood principle", Proceedings of the 2nd International Symposium on Information Theory, Petrov, B. N., and Caski, F. (eds.), Akadimiai Kiado, Budapest: 267-281 (1973). --- <https://www.phys.chuo-u.ac.jp/public/tag/kougi/2004/toukei/presen6.pdf> 情報量 → 尤度 → 尤度最大が「もっとも確からしい」