Fokus Pertanyaan Ini
"Bagaimana ... kami bisa memproses data dari distribusi yang benar dan data dari model generatif dalam iterasi yang sama?
Menganalisis Publikasi Yayasan
Di halaman yang direferensikan, Understanding Generative Adversarial Networks (2017) , kandidat doktoral Daniel Sieta dengan benar merujuk Generative Adversarial Networks, Goodfellow, Pouget-Abadie, Mirza, Xu, Warde-Farley, Ozair, Courville, dan Bengio, Juni 2014 . Ini abstrak menyatakan, "Kami mengusulkan kerangka kerja baru untuk memperkirakan model generatif melalui proses permusuhan, di mana kami secara bersamaan melatih dua model ..." Makalah asli ini mendefinisikan dua model yang didefinisikan sebagai MLP (multilayer perceptrons).
- Model generatif, G
- Model diskriminatif, D
Kedua model ini dikendalikan dengan cara di mana satu memberikan bentuk umpan balik negatif terhadap yang lain, oleh karena itu istilah permusuhan.
- G dilatih untuk menangkap distribusi data dari serangkaian contoh dengan cukup baik untuk menipu D.
- D dilatih untuk menemukan apakah inputnya adalah tiruan G atau sekumpulan contoh untuk sistem GAN.
(Serangkaian contoh untuk sistem GAN kadang-kadang disebut sebagai sampel nyata, tetapi mereka mungkin tidak lebih nyata daripada yang dihasilkan. Keduanya adalah susunan numerik di komputer, satu set dengan asal internal dan yang lainnya dengan eksternal asal apakah eksternal dari kamera menunjuk beberapa adegan fisik tidak relevan dengan operasi GAN.)
Secara probabilistik, menipu D identik dengan memaksimalkan probabilitas bahwa D akan menghasilkan sebanyak positif palsu dan negatif palsu seperti halnya kategorisasi yang benar, masing-masing 50%. Dalam ilmu informasi, ini mengatakan bahwa batas informasi D memiliki G mendekati 0 ketika t mendekati tak terhingga. Ini adalah proses memaksimalkan entropi G dari perspektif D, dengan demikian istilah entropi silang.
Bagaimana Konvergensi Dicapai
Karena fungsi kerugian direproduksi dari tulisan Sieta 2017 dalam pertanyaannya adalah D, yang dirancang untuk meminimalkan entropi silang (atau korelasi) antara dua distribusi ketika diterapkan pada set poin penuh untuk keadaan pelatihan yang diberikan.
H( ( x1, y1) , D ) = 1D ( x1)
Ada fungsi kerugian terpisah untuk G, yang dirancang untuk memaksimalkan entropi silang. Perhatikan bahwa ada DUA tingkat granularitas pelatihan dalam sistem.
- Itu gim bergerak dalam gim dua pemain
- Itu dari sampel pelatihan
Ini menghasilkan iterasi bersarang dengan iterasi luar sebagai berikut.
- Pelatihan hasil G menggunakan fungsi kerugian G.
- Pola input tiruan dihasilkan dari G pada kondisi pelatihan saat ini.
- Pelatihan hasil D menggunakan fungsi kerugian D.
- Ulangi jika cross entropy belum dimaksimalkan secara memadai, D masih bisa melakukan diskriminasi.
Ketika D akhirnya kalah, kami telah mencapai tujuan kami.
- G memulihkan distribusi data pelatihan
- D telah dikurangi menjadi tidak efektif ("1/2 probabilitas di mana-mana")
Mengapa Pelatihan Serentak Diperlukan
Jika kedua model tidak dilatih secara bolak-balik untuk mensimulasikan konkurensi, konvergensi dalam bidang permusuhan (iterasi luar) tidak akan terjadi pada solusi unik yang diklaim dalam makalah 2014.
Informasi Lebih Lanjut
Di luar pertanyaan, item berikutnya yang menarik dalam makalah Sieta adalah bahwa, "Desain fungsi kehilangan generator yang buruk," dapat menyebabkan nilai gradien yang tidak memadai untuk memandu keturunan dan menghasilkan apa yang kadang-kadang disebut saturasi. Kejenuhan hanyalah reduksi dari sinyal umpan balik yang memandu penurunan propagasi balik ke kebisingan kacau yang timbul dari pembulatan titik mengambang. Istilah ini berasal dari teori sinyal.
Saya sarankan mempelajari makalah 2014 oleh Goodfellow et alia (peneliti berpengalaman) untuk belajar tentang teknologi GAN daripada halaman 2017.
Anda dapat memperlakukan kombinasi
z
input danx
input sebagai sampel tunggal, dan Anda mengevaluasi seberapa baik diskriminator melakukan klasifikasi masing-masing.Inilah sebabnya mengapa pos nanti memisahkan satu
y
menjadiE(p~data)
danE(z)
- pada dasarnya, Anda memiliki harapan yang berbeday
untuk masing-masing input diskriminator dan Anda perlu mengukur keduanya pada saat yang sama untuk mengevaluasi seberapa baik kinerja diskriminator.Itu sebabnya fungsi kerugian dipahami sebagai kombinasi dari klasifikasi positif dari input nyata dan klasifikasi negatif dari input negatif.
sumber