Ketika saya menjalankannya fdupes
menemukan lebih dari 30.000 file duplikat. Saya perlu menyimpan satu file dan menghapus semua duplikat lainnya (karena beberapa di antaranya adalah file sistem). Tolong beri saya perintah atau skrip untuk melakukan ini tanpa menekan "1 atau 2 atau semua" untuk masing-masing dan setiap kelompok file duplikat.
duplicate-files
pengguna84055
sumber
sumber
for f in $(fdupes -f .); do gvfs-trash $f; done
fdupes -f . | xargs -rd '\n' -- gvfs-trash
jika Anda memiliki nama file dengan spasi dan karakter khusus atau banyak file.fdupes
ini tidak memberikan opsi untuk catatan yang diakhiri dengan nol, jadi tidak ada opsi yang lebih baik. Ini jelas jauh lebih baik daripada itufor f in $(fdupes ...)
. : -]fdupes
memiliki CLI yang kaya:Kemudian, menghapus duplikat semudah memeriksa
dupes.txt
dan menghapus direktori yang menyinggung.fdupes
juga dapat meminta Anda untuk menghapus duplikat saat Anda melanjutkan.Output dari perintah masuk
duplicate.txt
.fdupes
akan membandingkan ukuran dan hash MD5 file untuk menemukan duplikat.Periksa halaman
fdupes
manual untuk info penggunaan terperinci.sumber
Saya akan menggunakan cara yang lebih aman ini:
Buat skrip dan pindahkan file yang digandakan ke folder baru. Jika Anda pindah ke folder di luar folder asli, fdupes tidak akan melaporkan file yang digandakan pada pemindaian kedua, dan akan lebih aman untuk menghapusnya.
sumber
Saya telah menggunakan fslint dan DupeGuru untuk beberapa waktu.
Keduanya dapat menangani> 10.000 file / folder
sumber