ResNets

前言

ResNets是一個很深的模型,深模型容易產生gradient vanish, exploring,那ResNets是如何突破這樣的問題。

內容

  • Residual block

  • 突破點: skip connections,一層的輸出直接跳越多層到某一層。
  • Residual block的組成:
    • 2個layer + 1個skip connection。
  • 主線運算計算
  • short cut計算
    • input直接跳到下一層的Relu之前。
  • Residual Network

  • plain(沒有short cut)。
  • 理論上,plain模型越大,training loss應該要下降,然而實際並沒有。

該學到的

  • ResNets是如何構建深層模型。

results matching ""

    No results matching ""