Classic Networks

前言

3個經典CNN模型架構介紹。

內容

  • LeNet - 5

  • 相對於現在是比較小的模型,只有6萬個parameters。
  • 沒有使用padding,新合成圖的長寬是逐步縮小。
  • channel逐步增加。
  • activation function當時都主要使用sigmoid, tanh。
  • 在pooling之後才使用activation function,現在是在con後就直接使用activation function。
  • AlexNet

  • 約60百萬parameters。
  • activation function使用Relu。
  • 使用2個GPU,並將計算量分配到兩個2GPU。
  • VGG - 16

  • 約138百萬
  • filter的size固定不變, pooling也固定不變。
  • 每次filter個數翻倍。
  • same padding保持長寬不變。
  • 利用pooling來縮減size。

該學到的

  • 了解3個經典CNN基本架構。

results matching ""

    No results matching ""