Saya mencadangkan semua foto digital saya ke beberapa tempat. Saya telah menggunakan perintah cp, tetapi - mengingat nilai pribadi - sudah mulai bertanya-tanya apakah ada cara yang lebih dapat diandalkan. Saya tidak asing dengan Linux, Bash, Perl, dll, jadi saya bisa menulis sesuatu untuk menyalin dan membandingkan hash md5, tapi saya bertanya-tanya apakah ada sesuatu yang sudah ada (reinvention, roda dan apa-tidak).
Sebagian besar googling saya untuk salinan dan (verifikasi | valid | cek | hash | konfirmasi) muncul rsync. Namun, sejauh yang saya tahu, rsync hanya menggunakan hash untuk melihat apakah file perlu diperbarui. Itu tidak melakukan perbandingan hash sesudahnya.
Untuk penggunaan ini, khususnya, file-file tersebut adalah biner dan biasanya 8-10MB. Setiap rekomendasi untuk utilitas atau panduan untuk solusi DIY akan sangat dihargai.
Jawaban:
Dari
man rsync
, di bawah-c
opsi:-c, --checksum: lewati berdasarkan checksum, bukan mod-time & size
sumber
Beberapa tahun yang lalu saya memiliki tuntutan yang sama seperti Anda. Solusi yang saya pilih adalah menggunakan ZFS melalui driver ZFS-FUSE di server penyimpanan saya. Pemikiran saya adalah foto-foto pribadi saya, dokumen yang dipindai, dan file serupa lainnya adalah hal-hal yang hanya dapat saya akses sesekali, jadi mungkin butuh waktu yang sangat lama, katakanlah setahun atau lebih, sebelum saya perhatikan bahwa file telah rusak karena kesalahan drive atau sejenisnya.
Pada saat itu, semua salinan cadangan yang saya miliki mungkin merupakan versi file yang sedikit busuk ini.
ZFS memiliki kelebihan dibandingkan RAID-5 karena dapat mendeteksi dan memperbaiki kesalahan pada data yang disimpan pada disk individu, bahkan jika drive tidak melaporkan kesalahan baca saat membaca data. Ini akan mendeteksi, melalui checksum, bahwa salah satu disc mengembalikan informasi yang rusak dan akan menggunakan data redundansi untuk memperbaiki disk itu.
Karena cara checksumming di ZFS dirancang, saya merasa bisa mengandalkannya untuk menyimpan data yang jarang digunakan untuk jangka waktu yang lama. Setiap minggu saya menjalankan "scrub zpool" yang melewati dan membaca kembali semua data dan memverifikasi checksum.
ZFS-FUSE telah bekerja cukup baik untuk saya selama beberapa tahun terakhir.
Di masa lalu, untuk klien, saya menerapkan sistem database yang menyimpan informasi checksum pada semua file yang disimpan di bawah direktori tertentu. Saya kemudian memiliki skrip lain yang akan berjalan secara berkala dan memeriksa file terhadap checksum yang disimpan dalam database. Dengan itu kita dapat dengan cepat mendeteksi file yang rusak dan mengembalikan dari cadangan. Kami pada dasarnya menerapkan jenis pemeriksaan yang sama dengan yang dilakukan ZFS secara internal.
sumber
https://sourceforge.net/projects/crcsum/ Ini memperluas Linux cp & mv dengan verifikasi checksum
sumber
Saya menemukan utilitas ini (Linux dan Windows) yang melakukan apa yang Anda inginkan (salinan hash + verifikasi hash dengan log): http://sourceforge.net/projects/quickhash/
Satu-satunya downside adalah bahwa itu hanya ada sebagai GUI (tidak ada akses baris perintah)
sumber
jika Anda menyalin file secara lokal (seperti yang tersirat oleh referensi Anda
cp
alih-alihscp
dll), maka hanyacmp
file sumber dan tujuan ... tetapi secara realistis, jikacp
tidak memancarkan semacam kesalahan (baik pada baris perintah atau dalam nilai pengembalian eksekusi), tidak ada alasan untuk percaya itu tidak berfungsi.jika Anda memang ingin cadangan berlebihan secara sah, pertimbangkan solusi jarak jauh seperti dropbox .
sumber