Tidak dapat menemukan lapisan embedding linier dalam jaringan saraf convolutional?

11

Saya memiliki arsitektur jaringan dari kertas "belajar kesamaan gambar berbutir halus dengan peringkat dalam" dan saya tidak dapat mengetahui bagaimana output dari tiga jaringan paralel digabungkan menggunakan lapisan embedding linier. Satu-satunya informasi yang diberikan pada lapisan ini, di koran adalah

Akhirnya, kami menormalkan embeddings dari tiga bagian, dan menggabungkannya dengan lapisan embedding linier. Dimensi embedding adalah 4096.

Adakah yang bisa membantu saya dalam mencari tahu apa sebenarnya yang dimaksud penulis ketika ia berbicara tentang lapisan ini?

A. Sam
sumber
Sangat disayangkan bagi saya bahwa tidak ada jawaban untuk pertanyaan ini. Karena saya terjebak dengan masalah yang persis sama. Apakah Anda mengetahuinya?
LKM
Saya tidak tahu jawabannya tetapi saya hanya menyatukan input dari tiga bagian dan melewatinya melalui lapisan padat yang berisi 4.096 node.
A. Sam

Jawaban:

1

Linear embedding layer harus hanya nama yang bagus untuk lapisan padat tanpa aktivasi. 'Linear' berarti tidak ada aktivasi (aktivasi adalah identitas). Dan embedding lebih merupakan konsep untuk representasi vektor dari data input (mis. Embeddings kata). Saya percaya elemen dari vektor kedua hanya ditambahkan ke elemen pertama.

Dmytro Prylipko
sumber
0

Disebutkan di koran:

Lapisan normalisasi lokal menormalkan peta fitur di sekitar lingkungan setempat untuk memiliki norma satuan dan rata-rata nol. Ini mengarah ke peta fitur yang kuat untuk perbedaan iluminasi dan kontras.

Mereka mengambil setiap bagian dari model dan menormalkannya secara terpisah.

Adapun menggabungkan mereka, seperti yang Anda komentari, untuk menangkap fitur yang paling menonjol, dengan representasi yang kurang lengkap tidak perlu untuk non-linearitas.

Fadi Bakoura
sumber