[An Overview of Multi-Task Learning for Deep Learning](https://www.ruder.io/multi-task/) - 関連するタスク間で表現を共有することで、元のタスクでより良い汎化ができるようになる [論文紹介: Multi-Task Learning as Multi-Objective Optimization - Qiita](https://qiita.com/koreyou/items/57c00bc314a68432de25) - 異なる性質を持つタスクを1つの学習器で解く - 出力の形式が異なる問題 - 補タスク(auxiliary tasks)の学習から得た教師信号をもとに興味がある主タスクの性能を向上することができる - いくつかのタスク全てに興味がある場合に、それらのタスクの学習の相乗効果により、各タスクの性能向上を図る ![[Pasted image 20230216232257.png]] ニューラルネットの1つのネットワークにタスクを複数つけるこで、1個の学習器で実現