Bagaimana model skip-gram Word2Vec menghasilkan vektor output?

11

Saya mengalami masalah dalam memahami model skip-gram dari algoritma Word2Vec.

Dalam kata-kata kontinyu mudah untuk melihat bagaimana kata konteks dapat "cocok" di Neural Network, karena Anda pada dasarnya meratakannya setelah mengalikan masing-masing representasi pengodean satu-panas dengan matriks input W.

Namun, dalam kasus lompatan-gram, Anda hanya mendapatkan vektor kata input dengan mengalikan encoding satu-panas dengan matriks input dan kemudian Anda seharusnya mendapatkan representasi vektor C (= ukuran jendela) untuk kata konteks dengan mengalikan representasi vektor input dengan matriks output W '.

Yang saya maksud adalah, memiliki kosakata ukuran dan pengkodean ukuran N , W R V × N matriks masukan dan W R N × V sebagai matriks keluaran. Diberi kata w i dengan pengkodean satu-panas x i dengan kata konteks w j dan w h (dengan repetisi satu-panas x j dan x h ), jika Anda mengalikan x i dengan matriks input W Anda mendapatkan hVNWRV×NWRN×VwixiwjwhxjxhxiW , sekarang bagaimana Anda menghasilkanvektor skor C dari ini?h:=xiTW=W(i,)RNC

crscardellino
sumber

Jawaban:

7

Saya memiliki masalah yang sama memahaminya. Tampaknya vektor skor output akan sama untuk semua istilah C. Tetapi perbedaan kesalahan dengan masing-masing vektor panas yang diwakili akan berbeda. Dengan demikian vektor kesalahan digunakan dalam back-propagation untuk memperbarui bobot.

Harap perbaiki saya, jika saya salah.

sumber: https://iksinc.wordpress.com/tag/skip-gram-model/

yazhi
sumber
jadi ? WRN×(VC)
Fabich
0

Dalam kedua model, nilai output tergantung pada fungsi skor yang Anda gunakan. Mungkin ada dua fungsi skor softmax atau pengambilan sampel negatif. Jadi, Anda menggunakan fungsi skor softmax. Anda akan mendapatkan ukuran fungsi skor N * D. Di sini D adalah dimensi vektor kata. N adalah jumlah contoh. Setiap kata seperti kelas dalam arsitektur jaringan syaraf.

Shamane Siriwardhana
sumber
0

kthkth

Skor untuk setiap kata dihitung dengan persamaan berikut.

u=WTh

Wu CC

p(wc,j=wO,c|wI)=expuc,jj=1Vexpuj

C

uC

References:

  • Xin Rong, Penjelasan Parameter Word2Vec Dijelaskan
pengguna3108764
sumber
Jadi matriks W pada dasarnya adalah kata vektor (output dari algoritma), dan W 'adalah matriks yang sama sekali berbeda yang kita buang?
Nadav B
W 'juga vektor kata yang sama-sama baik.
user3108764
1
p(wc,j=wO,c|wI)=expuc,jj=1Vexpuj=expujj=1Vexpuj