Recurrent Neural Network Model

前言

為什麼不選擇標準的深度學習模型,而是利用RNN的模型來處理這些sequence data?

內容

  • Why not a standard network?

  • sequence data在進行處理時,往往input跟output的長度是不固定的。
  • 標準的深度學習模型的weight的重複使用率低,就好比CNN模型的中filter可以重複被利用,RNN對於處理sequence data具有share feature的能力,共享weight,進而可以控制模型的大小,計算量也大幅下降。
  • Recurrent Neural Networks

  • 最右邊的圖,RNN的核心就是有個循環的箭頭。
  • Waa, Wax, Wya,透過這3組weight,以及輸入的x,跟上個時間點的a,不斷生成新的y。
  • Waa, Wax, Wya在每次都循環都是相同的一組,也就是共享weight。
  • Forward Propagation

  • 具體的Forward Propagation的流程。
  • a,y的計算公式。
  • Simplified RNN notation

  • 將上面的兩個公式進行化簡。
  • Waa, Wax合併(左右合併)。
  • at-1,xt合併(上下合併)。
  • 將兩個weight合併,兩個input合併,如此一來原本的兩步計算(線性組合),變成一次計算(線性組合)就可以完成,計算量可以大幅下降。

該學到的

  • 為什麼不用標準的深度學習模型。
  • RNN的基本核心,公式。
  • 如何進行公式的簡化。

results matching ""

    No results matching ""