[[転移学習 - 神嶌 敏弘 人工知能学会誌 2010年]]より引用 1) データ拡張 (data amplification) : 共通する因子がある複数タスクがあれば,共通因子のノイズがタスク間でキャンセルされて緩和されることで学習が容易になる. 2) 属性選択 (at tribute selection) : 複数のタスクを同時に学習させることで,それらのタスクで共通に有用な特徴をより容易に発見できるようになる. 3) 立ち聞き (eavesdroping): タスク間で学習の難易度に差があれば,困難なタスクは容易なタスクから情報を得てより簡単に学習が可能になる. 4) 表現バイアス (representationbias) :各タスクに複数の局所解があるとき,複数のタスクに共通な局所解が選ばれやすくなる.逆に,ほかのタスクで使われない局所解は使われにくくなる.