バッチサイズとかエポックとかイテレーションとか

機械学習

ニューラルネットワークの解説記事なんかで目にするバッチサイズとかエポックという単語で混乱したので調べました。

これについて、こちらの記事*1の以下の説明で疑問が晴れました。

We can divide the dataset of 2000 examples into batches of 500 then it will take 4 iterations to complete 1 epoch.

注釈を入れながら翻訳しますと、以下のようになります。

2000個の学習データについて、バッチサイズ*500個でミニバッチ学習する場合、(勾配降下法などによる)重み更新を4イテレーション繰り返すと1エポック。

*ミニバッチのデータサンプル数をミニバッチサイズ、またはバッチサイズと呼ぶ*2

ややこしい用語が多いですが、少しずつ慣れていきましょう…。

コメント