Mini-batch gradient descent

前言

深度學習是個實驗科學,需要反覆實驗,不停的修正,所以我們希望可以快速看到實驗結果,Mini-batch gradient descent就是一種可以幫助我們快速看到實驗結果的方式。

內容

  • Batch vs. mini-batch gradient descent

  • 假設樣本數是500萬,想看到損失值,就要把百萬的樣本都全部訓練一次,這樣的時間太漫長。
  • 將全部樣本切割成5000份,每一份只有1000個樣本,跑完一份樣本,就產出一個損失值,這樣的時間就還可以接受

該學到的

  • 什麼是Mini-batch gradient descent。

results matching ""

    No results matching ""