Dengan asumsi artefak dan elemen tidak alami tidak ada di media yang dipertanyakan dan bahwa media tidak dapat dibedakan oleh mata manusia, satu-satunya cara untuk dapat melakukan ini adalah dengan melacak kembali ke sumber gambar.
Analogi dapat ditarik ke serangan DoS (Denial of Service), di mana sejumlah permintaan yang tidak masuk akal dikirim dari satu IP ke satu server yang menyebabkannya mogok - Solusi umum adalah honeypot, di mana sejumlah besar permintaan dari satu IP dialihkan ke server umpan di mana, bahkan jika crash, uptime tidak terganggu. Beberapa penelitian telah dilakukan pada baris-baris ini di mana makalah ini berbicara tentang memverifikasi tanda tangan digital dari suatu gambar atau yang ini di mana mereka mengusulkan deteksi gambar yang dirusak dan identifikasi sumber kamera.
Setelah ditelusuri kembali ke sumber, jika sejumlah gambar berpotensi palsu datang dari sumber tunggal, itu harus dipertanyakan.
Ketakutan umum muncul ketika kita berurusan dengan sesuatu, berdasarkan analogi, seperti serangan DDoS (Distributed Denial of Service) di mana setiap permintaan palsu berasal dari sumber terdistribusi - Network Security telah menemukan cara untuk menghadapinya, tetapi keamanan dan deteksi penipuan dalam hal AI tidak begitu diketahui.
Pada dasarnya untuk media buatan yang dipikirkan dengan baik untuk tujuan jahat tertentu, hari ini, cukup sulit untuk ditangkap - Tetapi pekerjaan sedang dilakukan saat ini pada keamanan di AI. Jika Anda berencana menggunakan media buatan untuk tujuan jahat, saya katakan sekarang adalah waktu terbaik.
Keamanan ini telah menjadi perhatian dari sedikit sekarang. Sebuah artikel yang ditulis oleh seorang kutipan ilmuwan Data
Deepfakes telah digunakan untuk mencoba melecehkan dan mempermalukan wanita melalui video porno palsu. Istilah ini sebenarnya berasal dari nama pengguna pengguna Reddit yang membuat video ini dengan membangun jaringan permusuhan generatif (GAN) menggunakan TensorFlow. Sekarang, pejabat intelijen berbicara tentang kemungkinan Vladimir Putin menggunakan video palsu untuk mempengaruhi pemilihan presiden 2020. Lebih banyak penelitian sedang dilakukan pada deepfake sebagai ancaman terhadap demokrasi dan keamanan nasional, serta bagaimana mendeteksi mereka.
Catatan - Saya tidak mengerti tentang keamanan jaringan, semua pengetahuan saya berasal dari satu percakapan dengan seorang teman, dan saya pikir ini akan menjadi analogi yang baik untuk digunakan di sini. Maafkan kesalahan apa pun dalam analogi ini dan mohon perbaiki jika mungkin!
Teknik yang Anda sebutkan menggunakan GAN. Gagasan kunci GAN adalah bahwa Anda memiliki generator dan pembeda. Generator menghasilkan konten baru, diskriminator harus memberi tahu apakah konten tersebut berasal dari data nyata atau jika dihasilkan.
Diskriminator jauh lebih kuat. Seharusnya tidak terlalu sulit untuk melatih seorang diskriminator untuk mendeteksi kesalahan. Melatih model yang mampu menunjukkan manipulasi dan memahami ini adalah bukti manipulasi yang lebih sulit. Tidak mungkin mendapatkan bukti bahwa sesuatu tidak dimanipulasi.
Tentang pertanyaan bagaimana Anda menangani gambar-gambar yang dipotret: Anda melihat perbedaan tingkat kompresi pada gambar. Kata kunci yang dicari adalah forensik gambar: http://fotoforensics.com/tutorial-estq.php
sumber