Regularization

前言

Regularization是如何降低overfitting?

內容

  • Logistic regression

  • 加入lambd(超參數)來控制weight(參數),讓模型不要太注意那些噪音數據的特徵。
  • L1,L2 regularization
    • 因為cost函數的要求是要越小越好。
    • 因此當lambd設置越大,模型就會想辦法讓w變小。
    • 因此當w變小,表示每層的輸出值也變小。
    • 因此當每層的輸出值也變小,在進行反向傳遞時,每一層的變化也變小。
    • 因此當每一層的變化也變小,模型就不會被那些噪音數據而干擾。
  • Neural network

  • How does regularization prevent overfitting?

  • Regularization是阻止模型學習太多的噪音數據。
  • lambd越大,表示w小,可以想成某些神經元是沒在工作,可以被刪除忽略,因此進而壓縮整個模型的大小。
  • lambd太大
    • 壓縮整個模型過多。
    • 出現underfitting。
  • lambd太小
    • 壓縮整個模型很小。
    • 出現overfitting。

該學到的

  • 理解超參數lambd是如何控制bias跟variance。

results matching ""

    No results matching ""