[【論文】Language Models are Few-Shot Learners](https://zenn.dev/dhirooka/articles/dc3d31f15cccb6)
> 学習時に入力される文章内には、様々なサブタスクが埋め込まれると考えられる。こうした文章の生成を学習することで、内包される様々な言語タスクへの処理能力の獲得が期待できる。このアプローチはGPT-2から用いられており、ここではin-context learningと呼ぶ。
[[2301.00234] A Survey on In-context Learning](https://arxiv.org/abs/2301.00234)