Learning word embeddings

前言

首先,在Neural Language Mode中,試著了解我們是如何訓練出Embedding matrix,接下來,在Other context/target pair,提出其他的訓練方式。

內容

  • Neural Language Mode

  • 如何構建一個RNN模型來訓練出我們所需要的Embedding matrix?
  • 首先,我們會有很多的樣本句子進行訓練。
  • 假設每個句子,我們要模型來推測最後一個單字會是什麼。
  • 接下來,將最後一個單字之前每個單字embedded vector找出來,組合成一個大的vector,例如只取前4個單字,則為 300*4 = 1200。
  • 然後將這個大vector丟入我們的模型中,讓模型去進行預測這字典中10000個單字成為最後一個單字的機率分別是多少。
  • 由於,我們都知道每個樣本句子的實際最後一個單字是什麼,我們就可以進backpropagation,來更新我們的Embedding matrix。
  • Other context/target pair

  • 有哪些不同的訓練方式?
  • target word的前後4個單字。
  • 前一個單字。
  • 最近的單字,又叫做skip gram的方法。

該學到的

  • 理解是如何訓練出Embedding matrix。
  • 有哪些不同的訓練方式?

results matching ""

    No results matching ""