Time Machine, ZFS dan deduplikasi

8

Saya saat ini mengekspor partisi ZFS dengan dedup=onmenggunakan ubuntu-zfsdan netatalk. Namun, mesin waktu bersikeras membuat sparsebundle di atasnya, dan itu membuat saya mulai bertanya-tanya apakah ini akan berdampak pada deduplikasi, karena konsep "file" hilang, dan mungkin keselarasan blok tidak akan menjadi bagus juga .. .

NB Gagasan saya tentang menggunakan dedup adalah bahwa saya memiliki beberapa macbook yang mencadangkan ke tempat yang sama, dan banyak file mereka sama.


Tambahan: Tampaknya penyelarasan level blok gagal dedup. Inilah pengalaman saya:

  • Salinan mesin waktu dari dua macbook yang berbeda, dengan banyak data digandakan di antara mereka (total 200Gb)
  • CCC dua macbooks ke dua gambar jarang.

Faktor deduplikasi? 1,01x


Adakah gagasan tentang cara menyiapkan ZFS dedup agar berfungsi dengan benar dengan pencadangan mesin waktu? Haruskah saya mulai mencari alternatif cadangan lain (dengan dedup)?

Hugo Sereno Ferreira
sumber
Kompresi tampaknya memang pilihan yang lebih baik. Mungkinkah itu enkripsi? Dua file terenkripsi dengan konten yang sama dapat "terlihat" berbeda dengan sistem file di bawahnya karena cara kerja enkripsi. Saya akan membayangkan bahwa dedup bekerja dengan baik pada volume yang tidak dienkripsi , meskipun itu satu file besar, dan bukan bundel yang jarang.
Oleg Lobachev

Jawaban:

7

Deduplikasi pada ZFS adalah blok-level, sehingga tidak tergantung pada konsep file. Satu-satunya cara deduplikasi dapat dikalahkan adalah jika offset file dalam sparsebundle tidak selalu sama dengan modulo ukuran blok. Karena ZFS dapat menggunakan ukuran blok variabel yang lebih besar dari ukuran blok sistem file HFS + di dalam sparsebundle, perataan yang benar tidak dijamin, tetapi juga tidak dijamin bahwa deduplikasi akan gagal.

Jika Anda khawatir tentang ruang, Anda mungkin juga ingin mengaktifkan kompresi pada kumpulan ZFS Anda. Ini membebankan overhead CPU tambahan, tetapi sebenarnya dapat meningkatkan throughput disk yang efektif.

user5516
sumber