# ミニバッチ学習 Created: October 16, 2020 9:29 PM Tags: terminology > いわゆるミニバッチ学習(mini-batch learning)は、バッチ[[勾配降下法(gradient [[descent)]]]] と確率的勾配降下法の折衷案である。ミニバッチ学習については、トレーニングデータの一部(たとえば 32 サンプルずつ)にバッチ勾配降下法を適用するものとして解釈できる。バッチ勾配降下法に対する利点として、ミニバッチのほうが重みの更新頻度が高いため、よりすばやく収束することが挙げられる。さらに、確率的勾配降下法でのトレーニングサンプルの for ループをベクトル化された演算に置き換えることがで きるため、学習アルゴリズムの計算効率をさらに引き上げることもできる。 [[📖Python機械学習プログラミング 達人データサイエンティストによる理論と実践]] p.45