[Ensemble learning - Wikipedia](https://en.wikipedia.org/wiki/Ensemble_learning)
> 統計学や機械学習において、アンサンブル法は複数の学習アルゴリズムを用いて、構成する学習アルゴリズムのいずれかを単独で用いた場合よりも優れた予測性能を得ることができる[1][2][3]。通常無限である統計力学の統計的アンサンブルとは異なり、機械学習アンサンブルは具体的に有限の代替モデル集合のみからなるが、一般的にはそれらの代替モデルの間にはるかに柔軟な構造を存在させることが可能である。
> [[教師あり機械学習]]アルゴリズムは、仮説空間を探索して、特定の問題に対して良い予測をするのに適した仮説を見つける というタスクを行う[4] 。仮説空間に特定の問題に非常に適し た仮説が含まれていても、良い仮説を見つけるのは非常に困 難な場合がある。アンサンブルは複数の仮説を組み合わせて、(できれば)より良い仮説を形成する。アンサンブルという用語は通常,同じベース学習器を用いて複数の仮説を生成する手法のために予約されている[according to whom?] 複数分類器システムという広い用語は,同じベース学習器によって誘導されていない仮説の混成もカバーしている[citation needed].
> アンサンブルの予測を評価するには、通常、単一のモデルの予測を評価するよりも多くの計算が必要です。ある意味では、アンサンブル学習は、多くの余分な計算を行うことによって、貧弱な学習アルゴリズムを補う方法と考えることができる。一方、アンサンブルでない1つのシステムでより多くの学習を行うという選択肢もある。アンサンブルシステムは、計算機、ストレージ、通信のリソースを同じだけ増加させても、2つ以上の手法にその増加を利用することで、1つの手法のリソース利用を増加させるよりも全体的な精度をより効率的に向上させることができる。決定木のような高速アルゴリズムは、アンサンブル手法(例えば、ランダムフォレスト)でよく使用されますが、低速のアルゴリズムもアンサンブル手法の恩恵を受けることができます。
> また、[[教師なし機械学習]]においても、コンセンサスクラスタリングや[[異常検知]]のように、アンサンブル手法が利用されている。