Fitting Batch Norm into a neural network

前言

如何將batch norm應用在神經網路之中。

內容

  • Adding Batch Norm to a network

  • 針對每一層隱藏層的輸入部分都進行batch norm的處理。
  • gamma, beta,跟w,b一樣,在gradient descent中會被更新。
  • Working with mini-batches

  • 每一次mini-batche都會進行一次正向跟反向的傳遞。
  • b是可以被忽略的。
    • 在每次的norm處理中,平均值會是0,也就是說b變成0,因此可以被忽略。
  • Implementing gradient descent

  • batch norm的實作
    • 對每一次的mini-batch計算正向傳遞。
    • 然後進行反向傳遞,同時更新gamma, beta,w,b。

該學到的

  • 如何在神經網路中實作batch norm。

results matching ""

    No results matching ""