The problem of local optima

前言

local optima的問題。

內容

  • Local optima in neural networks

  • 所有的參數跟loss J的組合,會形成很多碗型,在尋找最低的碗底(global optima)時,我們的模型有可能就陷入其他中高位置碗的底部(local optima)。
  • local optima是淺層模型特有的,在深層模型中出現這種多個碗型的機率很低。
  • 深層模型通常面對的是saddle point。
  • Problem of plateaus

  • saddle point其實並不會讓深層模型陷入所謂local optima而停止學習,最主要的問題是在plateaus(高原)問題,要從高處走到低處的階段很慢。
  • 前面學的優化算法就是要加速這個階段的速度。

該學到的

  • saddle point的問題?
  • 優化算法到底幫助了什麼?

results matching ""

    No results matching ""