[[最尤推定]]の一種。 --- [Expectation–maximization algorithm - Wikipedia](https://en.wikipedia.org/wiki/Expectation%E2%80%93maximization_algorithm) > 統計学において,期待値最大化(EM)アルゴリズムは,モデルが観測されていない潜在変数に依存する統計モデルにおいて,パラメータの(局所的な)最尤推定値または最後尾(MAP)推定値を求める反復法である. > EMアルゴリズムは、方程式を直接解くことができない場合に、統計モデルの(局所的な)最尤パラメータを求めるために使用されます。通常、これらのモデルには、未知のパラメータと既知のデータオブザベーションに加えて、潜在的な変数が含まれます。つまり、データに欠損値が存在するか、さらに未観測のデータポイントが存在すると仮定することで、モデルをよりシンプルに定式化することができます。例えば、混合モデルは、観測された各データポイントが、対応する観測されていないデータポイント、つまり潜在変数を持っていると仮定することで、よりシンプルに記述することができ、各データポイントが属する混合成分を特定することができます。 > 最尤解を求めるには、通常、すべての未知の値(パラメータと潜在変数)に対する尤度関数の導関数を取り、その結果得られる方程式を同時に解く必要があります。潜在変数を持つ統計モデルでは、通常これは不可能です。代わりに、パラメータの解は潜在変数の値を必要とし、その逆もまた然りであるが、一方の方程式のセットを他方に代入すると解けない方程式が生成されるという、一連の連動した方程式が得られるのが一般的である。 > EMアルゴリズムは、この2つの方程式を数値的に解く方法があるということから始まりました。単純に2つの未知数セットの片方に任意の値を選び、それを使って2つ目のセットを推定し、その新しい値を使って1つ目のセットのより良い推定値を見つけ、結果として得られる値が両方とも固定点に収束するまで、2つのセットを交互に繰り返すことができます。これがうまくいくことは明らかではありませんが、この文脈では証明できます。さらに、その点では尤度の微分が(任意に)ゼロに近いことが証明でき、その点が最大値か鞍点であることを意味する[13]。 一般に、複数の最大値が発生することがあり、グローバルな最大値が見つかる保証はない。また、尤度の中には、特異点、つまり無意味な最大値を持つものもあります。例えば,混合モデルのEMで求められる解の1つに,成分の1つを分散ゼロとし,同じ成分の平均パラメータをデータポイントの1つと等しくするというものがあります.