Using word embeddings

前言

Named entity recognization example,當模型可以了解相近詞,或相反詞時,在遇到相類似的句子結構時,應該就可以進行對應的意思推導。這樣的句義模型通常是不用重頭開始訓練,Transfer learning and word embeddings,透過transfer learing可以減少大量的訓練工作。最後Relation to face encoding,word embedding其實跟之前學的人臉辨識的基礎理論是相似的。

內容

  • Named entity recognization example

    • 當模型做完大量句子的訓練完,模型應該有能力可以推測"Sally Johnson"是個人名,"orange"是個水果,跟orange類似的的水果單詞有哪些,ex. "apple", "durian"。跟farmer類似的單詞如"cultivator"。
  • Transfer learning and word embeddings

  • 利用已經訓練好的模型作為基礎,根據新的embedding words,針對現有模型最後一兩層的layers重新訓練,如此這樣重新訓練好的模型就可以直接使用在新的task的預測上了。
  • Relation to face encoding

  • 之前學到的人臉辨識,就是給予一張圖片,經由DL之後,會生成一個vector(128),然後透過兩張圖所生成的兩個不同vector的差異,來判斷這兩張圖是否為同一個人。

  • embedding,也是相類似,字典中可能有10000個單子,經過大量的句子訓練後,會提每個單子生成一個vector(ex. 300),再透過不同vector的差異,來判斷這兩個單字是否相似。

該學到的

  • 什麼是相類似的句子的結構。
  • Transfer learning在word embeddings的應用。
  • 跟人臉辨識的理論關係。

results matching ""

    No results matching ""