[松尾研 LLM講座 講義コンテンツ | 東京大学松尾研究室 - Matsuo Lab](https://weblab.t.u-tokyo.ac.jp/llm_contents/)
松尾研究室が2023年9~10月に東京大学サマースクールで開催した[[LLM]]大規模言語モデル講座のコンテンツ
## 講義内容
### 第1回:Overview of Language Models
LLMの概要、今後の各回の講義の概要、および日本のLLM開発状況について
### 第2回:Prompting and Augmented Language Model
事前学習済みLLMを追加学習せずに活用する技術(プロンプティング、[[In-Context Learning|文脈内学習]]、Augmented Language Models)について
### 第3回:Pre-training Pipeline
LLMの主流なモデル構造である[[Transformer]]と、その事前学習の仕組みについて
### 第4回:Scaling Pre-training
LLMをスケール(大規模化)する理由、スケールにおける課題、スケールしたモデルを学習する⽅法について
### 第5回:Parameter Efficient Finetuning
LLMの[[ファインチューニング]](タスク適応・ドメイン適応を実現するためのFinetuning、対話性能やzero-shot・few-shot性能を向上するInstruction Tuning、および効率的なFinetuning手法であるParameter Efficient Finetuning)について
### 第6回:RLHF, Advanced Topic for Tuning Pre-trained Models
[[RLHF]](Reinforcement Learning from Human Feedback) について
### 第7回:Going Beyond LLM
理研AIP 研究員 栗田修平氏による特別講義(「Going Beyond LLM」、LLM構築における実践的なナレッジやLLMのマルチモーダル化について)