Bagaimana Anda menghitung ukuran blok yang optimal saat menjalankan dd
? Saya telah menelitinya sedikit dan saya tidak menemukan apa pun yang menunjukkan bagaimana ini akan tercapai.
Saya mendapat kesan bahwa blocksize yang lebih besar akan menghasilkan lebih cepat dd
... apakah ini benar?
Saya akan menggunakan dd
dua HDD Hitachi 500GB identik yang berjalan pada 7200rpm pada kotak yang menjalankan Intel Core i3 dengan RAM 4GB DDR3 1333mhz, jadi saya mencoba mencari tahu blocksize apa yang akan digunakan. (Saya akan mem-boot Ubuntu 10.10 x86 dari flash drive, dan menjalankannya dari sana.)
dd
untuk menemukan ukuran blokir optimal saat mentransfer fileJawaban:
Ukuran blok yang optimal bergantung pada berbagai faktor, termasuk sistem operasi (dan versinya), serta berbagai bus dan disk perangkat keras yang terlibat. Beberapa sistem mirip Unix (termasuk Linux dan setidaknya beberapa rasa BSD) menentukan
st_blksize
anggotastruct stat
yang memberikan apa yang menurut kernel adalah ukuran blok yang optimal:Cara terbaik mungkin adalah bereksperimen: salin gigabyte dengan berbagai ukuran blok dan waktu itu. (Ingatlah untuk menghapus cache buffer kernel sebelum setiap proses:)
echo 3 > /proc/sys/vm/drop_caches
.Namun, sebagai aturan praktis, saya telah menemukan bahwa ukuran blok yang cukup besar memungkinkan
dd
melakukan pekerjaan dengan baik, dan perbedaan antara, katakanlah, 64 KiB dan 1 MiB kecil, dibandingkan dengan 4 KiB versus 64 KiB. (Meskipun, memang, sudah lama sejak saya melakukan itu. Saya menggunakan mebibyte secara default sekarang, atau biarkan sajadd
memilih ukurannya.)sumber
Seperti yang dikatakan orang lain, tidak ada ukuran blok yang benar secara universal; apa yang optimal untuk satu situasi atau satu perangkat keras mungkin sangat tidak efisien untuk situasi lain. Selain itu, tergantung pada kesehatan disk, mungkin lebih baik menggunakan ukuran blok yang berbeda daripada yang "optimal".
Satu hal yang cukup dapat diandalkan pada perangkat keras modern adalah bahwa ukuran blok default 512 byte cenderung hampir satu urutan lebih lambat daripada alternatif yang lebih optimal. Jika ragu, saya menemukan bahwa 64K adalah default modern yang cukup solid. Meskipun 64K biasanya bukan ukuran blok yang optimal, menurut pengalaman saya, ini cenderung jauh lebih efisien daripada default. 64K juga memiliki sejarah yang cukup kuat tentang kinerja yang andal: Anda dapat menemukan pesan dari milis Eug-Lug, sekitar tahun 2002, merekomendasikan ukuran blok 64K di sini: http://www.mail-archive.com/eug- [email protected]/msg12073.html
Untuk menentukan ukuran blok keluaran optimal, saya telah menulis skrip berikut yang menguji penulisan file uji 128M dengan dd pada berbagai ukuran blok yang berbeda, dari default 512 byte hingga maksimum 64M. Berhati-hatilah, skrip ini menggunakan dd secara internal, jadi gunakan dengan hati-hati.
dd_obs_test.sh:
Lihat di GitHub
Saya hanya menguji skrip ini pada sistem Debian (Ubuntu) dan di OSX Yosemite, jadi mungkin perlu beberapa penyesuaian agar dapat berfungsi pada rasa Unix lainnya.
Secara default, perintah akan membuat file uji bernama dd_obs_testfile di direktori saat ini. Cara lainnya, Anda dapat memberikan jalur ke file pengujian khusus dengan memberikan jalur setelah nama skrip:
Output dari skrip adalah daftar ukuran blok yang diuji dan kecepatan transfernya masing-masing seperti:
(Catatan: Unit kecepatan transfer akan bervariasi berdasarkan OS)
Untuk menguji ukuran blok baca yang optimal, Anda dapat menggunakan proses yang kurang lebih sama, tetapi alih-alih membaca dari / dev / zero dan menulis ke disk, Anda akan membaca dari disk dan menulis ke / dev / null. Skrip untuk melakukan ini mungkin terlihat seperti ini:
dd_ibs_test.sh:
Lihat di GitHub
Perbedaan penting dalam hal ini adalah bahwa file pengujian adalah file yang ditulis oleh skrip. Jangan arahkan perintah ini ke file yang sudah ada atau file yang sudah ada akan ditimpa dengan angka nol!
Untuk perangkat keras khusus saya, saya menemukan bahwa 128K adalah ukuran blok input paling optimal pada HDD dan 32K paling optimal pada SSD.
Meskipun jawaban ini mencakup sebagian besar temuan saya, saya telah mengalami situasi ini cukup sering sehingga saya menulis posting blog tentangnya: http://blog.tdg5.com/tuning-dd-block-size/ Anda dapat menemukan lebih banyak spesifik pada tes yang saya lakukan di sana.
sumber
dd_obs_test.sh
conv=fsync
tidak berfungsi di macOS dan dapat dihapus.Saya telah menemukan ukuran blokir optimal saya menjadi 8 MB (sama dengan cache disk?) Saya perlu menghapus (beberapa orang mengatakan: mencuci) ruang kosong pada disk sebelum membuat gambar terkompresi darinya. Saya menggunakan:
Saya bereksperimen dengan nilai dari 4K hingga 100 juta.
Setelah membiarkan dd berjalan sebentar saya membunuhnya (Ctlr + C) dan membaca hasilnya:
Karena dd menampilkan laju input / output (dalam kasus ini 19.1MB / s), mudah untuk melihat apakah nilai yang Anda pilih berkinerja lebih baik daripada yang sebelumnya atau lebih buruk.
Skor saya:
Catatan: Untuk memeriksa ukuran cache / buffer disk Anda, Anda dapat menggunakan
sudo hdparm -i /dev/sda
sumber
8M
sulit untuk dikalahkan.Ini sepenuhnya bergantung pada sistem. Anda harus bereksperimen untuk menemukan solusi optimal. Coba mulai dengan
bs=8388608
. (Karena HDD Hitachi tampaknya memiliki cache 8MB.)sumber
bs=8M
di GNU / Linux ataubs=8m
di BSDbs=8388608
dan kurangi sekali setiap langkah"sumber
sumber