Word2Vec

前言

先暸解Skip-grams的意義後,再深入一點對於Model的建立,最後在Problems with softmax classification中提出對於這樣的模型算法的計算缺點,以及context的決定。

內容

  • Skip-grams

  • 用一個單字(context)去預測另外一個單字(Target)。
  • Target和context的距離跟方向(左右)都可以自由決定。
  • Model

  • 如何基於Skip-grams的算法來構建模型。
  • 假設字典中有10000k個單字,我們選擇"orange"當作context,"juice"當作target。
  • 知道了Oc,也知道真正的目標值 y(1000)。
  • 透過E產生Ec(300)丟入模型softmax產生預測值 y(1000)。
  • 透過目標值跟預測值的誤差不斷的修正模型和E。
  • Problems with softmax classification

  • 這樣的softmax的公式的計算量相當龐大。
  • 透過hierarchical softmax的樹形二分計算法,讓原本是線性的計算量降為log等級的計算量。
  • 如何選擇適當的context,如果是隨機選擇,很有很大機率選到無意義的單字(the, of, and..),導致模型可能耗費在無意義的訓練上。

該學到的

  • 什麼是Skip-grams。
  • 如何基於Skip-grams的算法來構建模型。
  • 計算量的問題。

results matching ""

    No results matching ""