Saya sering memiliki kebutuhan untuk mengkompres file yang sangat mirip satu sama lain.
Saat ini saya menggunakan 7Zip, yang memampatkan file 16GB ke 1,2GB dalam waktu sekitar 35 menit menggunakan 8 core dengan pengaturan Ultra.
Tampaknya bagi saya banyak waktu yang dihabiskan menghitung kamus untuk digunakan untuk kompresi. Karena file-file tersebut sangat mirip, kamus yang sebenarnya digunakan kemungkinan juga mirip.
Apakah ada alat kompresi berbasis Windows (7Zip dengan opsi yang tidak saya sadari, atau alat lain) yang dapat menyimpan kamus dan menggunakan kembali kamus yang disimpan itu untuk file selanjutnya?
Apakah ada cara yang lebih baik untuk mendekati masalah mempertahankan rasio kompresi yang serupa dengan yang saya miliki, sementara mengompres secara signifikan lebih cepat?
sumber
Berbeda dengan algoritma DEFLATE, LZMA 7-Zip menggunakan kompresi solid secara default, yang memanfaatkan redundansi antar file. Ini akan berfungsi dengan pengaturan default selama file cukup kecil.
Dengan pengaturan default 2 GB untuk ukuran Solid Block , file 16 GB sebenarnya dikompresi sebagai 8 potongan terpisah.
Seperti yang sudah dikatakan @Breakthorugh, kamus dibuat dengan cepat. Anda dapat memverifikasi ini secara empiris dengan mengatur ukuran Blok Padat ke Padat (kompres semua file sekaligus) dan Non-padat (kompres setiap file secara terpisah).
Meningkatkan ukuran Blok Padat sebenarnya akan menghasilkan pelambatan, tetapi dapat menghasilkan rasio kompresi yang jauh lebih baik. Misalnya, mengompresi dua file yang identik akan menghasilkan arsip hampir dua kali lebih besar dengan kompresi non-padat.
sumber