ニューラルネットワークの解説記事なんかで目にするバッチサイズとかエポックという単語で混乱したので調べました。
これについて、こちらの記事*1の以下の説明で疑問が晴れました。
We can divide the dataset of 2000 examples into batches of 500 then it will take 4 iterations to complete 1 epoch.
注釈を入れながら翻訳しますと、以下のようになります。
2000個の学習データについて、バッチサイズ*500個でミニバッチ学習する場合、(勾配降下法などによる)重み更新を4イテレーション繰り返すと1エポック。
*ミニバッチのデータサンプル数をミニバッチサイズ、またはバッチサイズと呼ぶ*2。
ややこしい用語が多いですが、少しずつ慣れていきましょう…。
本書は「ディープラーニング」についての本です。ディープラーニングを理解するために必要な知識を、初歩的なことから一つひとつ積み重ねながら説明していきます。ディープラーニングとは何なのか、どういう特徴があるのか、どういう原理で動作しているのか、といったことをできるだけやさしい言葉で説明します。
コメント