dd: Bagaimana menghitung ukuran blokir yang optimal? [Tutup]

122

Bagaimana Anda menghitung ukuran blok yang optimal saat menjalankan dd? Saya telah menelitinya sedikit dan saya tidak menemukan apa pun yang menunjukkan bagaimana ini akan tercapai.

Saya mendapat kesan bahwa blocksize yang lebih besar akan menghasilkan lebih cepat dd... apakah ini benar?

Saya akan menggunakan dddua HDD Hitachi 500GB identik yang berjalan pada 7200rpm pada kotak yang menjalankan Intel Core i3 dengan RAM 4GB DDR3 1333mhz, jadi saya mencoba mencari tahu blocksize apa yang akan digunakan. (Saya akan mem-boot Ubuntu 10.10 x86 dari flash drive, dan menjalankannya dari sana.)

eckza
sumber
Mengadopsi jawaban @ tdg5 untuk macOS - macos_dd_ibs_test.sh dan macos_dd_obs_test.sh
mixel
1
Jawaban terbaik adalah menyumbangkan fitur dduntuk menemukan ukuran blokir optimal saat mentransfer file
Boris
Mengapa topik ini ditandai keluar dan tidak dimigrasikan ke pengguna super?
pengguna267092

Jawaban:

95

Ukuran blok yang optimal bergantung pada berbagai faktor, termasuk sistem operasi (dan versinya), serta berbagai bus dan disk perangkat keras yang terlibat. Beberapa sistem mirip Unix (termasuk Linux dan setidaknya beberapa rasa BSD) menentukan st_blksizeanggota struct statyang memberikan apa yang menurut kernel adalah ukuran blok yang optimal:

#include <sys/stat.h>
#include <stdio.h>

int main(void)
{
    struct stat stats;

    if (!stat("/", &stats))
    {
        printf("%u\n", stats.st_blksize);
    }
}

Cara terbaik mungkin adalah bereksperimen: salin gigabyte dengan berbagai ukuran blok dan waktu itu. (Ingatlah untuk menghapus cache buffer kernel sebelum setiap proses:) echo 3 > /proc/sys/vm/drop_caches.

Namun, sebagai aturan praktis, saya telah menemukan bahwa ukuran blok yang cukup besar memungkinkan ddmelakukan pekerjaan dengan baik, dan perbedaan antara, katakanlah, 64 KiB dan 1 MiB kecil, dibandingkan dengan 4 KiB versus 64 KiB. (Meskipun, memang, sudah lama sejak saya melakukan itu. Saya menggunakan mebibyte secara default sekarang, atau biarkan saja ddmemilih ukurannya.)

Boiethios
sumber
11
Saya sangat menyesal karena tidak pernah menerima ini sebagai jawaban ... terima kasih!
eckza
Poin bagus tentang mengingat untuk menjatuhkan cache. Ini mengacaukan pengukuran saya! (Meskipun masalah kecil: ini adalah "drop_caches", dengan garis bawah. Tampaknya pengeditan harus minimal 6 karakter ... :()
Tom
73

Seperti yang dikatakan orang lain, tidak ada ukuran blok yang benar secara universal; apa yang optimal untuk satu situasi atau satu perangkat keras mungkin sangat tidak efisien untuk situasi lain. Selain itu, tergantung pada kesehatan disk, mungkin lebih baik menggunakan ukuran blok yang berbeda daripada yang "optimal".

Satu hal yang cukup dapat diandalkan pada perangkat keras modern adalah bahwa ukuran blok default 512 byte cenderung hampir satu urutan lebih lambat daripada alternatif yang lebih optimal. Jika ragu, saya menemukan bahwa 64K adalah default modern yang cukup solid. Meskipun 64K biasanya bukan ukuran blok yang optimal, menurut pengalaman saya, ini cenderung jauh lebih efisien daripada default. 64K juga memiliki sejarah yang cukup kuat tentang kinerja yang andal: Anda dapat menemukan pesan dari milis Eug-Lug, sekitar tahun 2002, merekomendasikan ukuran blok 64K di sini: http://www.mail-archive.com/eug- [email protected]/msg12073.html

Untuk menentukan ukuran blok keluaran optimal, saya telah menulis skrip berikut yang menguji penulisan file uji 128M dengan dd pada berbagai ukuran blok yang berbeda, dari default 512 byte hingga maksimum 64M. Berhati-hatilah, skrip ini menggunakan dd secara internal, jadi gunakan dengan hati-hati.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Lihat di GitHub

Saya hanya menguji skrip ini pada sistem Debian (Ubuntu) dan di OSX Yosemite, jadi mungkin perlu beberapa penyesuaian agar dapat berfungsi pada rasa Unix lainnya.

Secara default, perintah akan membuat file uji bernama dd_obs_testfile di direktori saat ini. Cara lainnya, Anda dapat memberikan jalur ke file pengujian khusus dengan memberikan jalur setelah nama skrip:

$ ./dd_obs_test.sh /path/to/disk/test_file

Output dari skrip adalah daftar ukuran blok yang diuji dan kecepatan transfernya masing-masing seperti:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Catatan: Unit kecepatan transfer akan bervariasi berdasarkan OS)

Untuk menguji ukuran blok baca yang optimal, Anda dapat menggunakan proses yang kurang lebih sama, tetapi alih-alih membaca dari / dev / zero dan menulis ke disk, Anda akan membaca dari disk dan menulis ke / dev / null. Skrip untuk melakukan ini mungkin terlihat seperti ini:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Lihat di GitHub

Perbedaan penting dalam hal ini adalah bahwa file pengujian adalah file yang ditulis oleh skrip. Jangan arahkan perintah ini ke file yang sudah ada atau file yang sudah ada akan ditimpa dengan angka nol!

Untuk perangkat keras khusus saya, saya menemukan bahwa 128K adalah ukuran blok input paling optimal pada HDD dan 32K paling optimal pada SSD.

Meskipun jawaban ini mencakup sebagian besar temuan saya, saya telah mengalami situasi ini cukup sering sehingga saya menulis posting blog tentangnya: http://blog.tdg5.com/tuning-dd-block-size/ Anda dapat menemukan lebih banyak spesifik pada tes yang saya lakukan di sana.

tdg5
sumber
1
Saya telah menjalankan skrip kedua, menguji kinerja baca, pada rMBP 2015 dengan SSD 512G. Ukuran blok terbaik adalah 8388608: 3,582 GB byte / detik.
Quinn Comendant
1
KOREKSI: Saya telah menjalankan skrip kedua, menguji kinerja baca, pada rMBP 2015 dengan SSD 512GB. Ukuran blok terbaik adalah 524288 (5,754 GB / detik). Ukuran blok terbaik kedua adalah 131072 (5,133 GB / detik). (Saya mengurutkan hasil secara tidak benar dalam menghasilkan nilai untuk komentar terakhir saya.)
Quinn Comendant
Untuk dd_obs_test.sh conv=fsynctidak berfungsi di macOS dan dapat dihapus.
rynop
Menurut pengalaman saya, membandingkan ukuran blok yang lebih besar membutuhkan sampel yang lebih besar agar akurat (beberapa detik. Saya menduga file 128MB harus membuatnya tetapi saya tidak yakin). Tidak yakin kenapa.
Rolf
2
Bung! Jawaban yang luar biasa. Ini seperti menemukan tambang emas, menggali banyak sekali tanah kemudian memprosesnya untuk menemukan GOLD NUGGET yang saya inginkan: 64K Terima kasih banyak.
SDsolar
10

Saya telah menemukan ukuran blokir optimal saya menjadi 8 MB (sama dengan cache disk?) Saya perlu menghapus (beberapa orang mengatakan: mencuci) ruang kosong pada disk sebelum membuat gambar terkompresi darinya. Saya menggunakan:

cd /media/DiskToWash/
dd if=/dev/zero of=zero bs=8M; rm zero

Saya bereksperimen dengan nilai dari 4K hingga 100 juta.

Setelah membiarkan dd berjalan sebentar saya membunuhnya (Ctlr + C) dan membaca hasilnya:

36+0 records in
36+0 records out
301989888 bytes (302 MB) copied, 15.8341 s, 19.1 MB/s

Karena dd menampilkan laju input / output (dalam kasus ini 19.1MB / s), mudah untuk melihat apakah nilai yang Anda pilih berkinerja lebih baik daripada yang sebelumnya atau lebih buruk.

Skor saya:

bs=   I/O rate
---------------
4K    13.5 MB/s
64K   18.3 MB/s
8M    19.1 MB/s <--- winner!
10M   19.0 MB/s
20M   18.6 MB/s
100M  18.6 MB/s   

Catatan: Untuk memeriksa ukuran cache / buffer disk Anda, Anda dapat menggunakan sudo hdparm -i /dev/sda

unfa
sumber
4
Apakah Anda hanya menjalankan setiap pengujian sekali? Saya pikir apa yang mungkin Anda lihat dari ≥64K adalah, bahwa buffer sudah penuh dan perbedaannya hanya varians acak.
Mads Y
Saya pernah mendengar tentang nilai besar yang berpotensi menghambat sistem. Orang itu sedang mengerjakan file besar. Alangkah baiknya jika saya dapat mendengar lebih banyak tentang ini.
Todd Partridge
1
Pengalaman saya juga menunjukkan 8Msulit untuk dikalahkan.
Sridhar Sarnobat
Menarik. Apakah menurut Anda ini terkait dengan ukuran cache L3 atau tidak? Saya bertanya-tanya apakah ukuran blok yang lebih besar dari cache L3 akan lebih lambat.
SurpriseDog
3

Ini sepenuhnya bergantung pada sistem. Anda harus bereksperimen untuk menemukan solusi optimal. Coba mulai dengan bs=8388608. (Karena HDD Hitachi tampaknya memiliki cache 8MB.)

ssapkota
sumber
5
banyak versi dd menerima singkatan: yaitu bs=8Mdi GNU / Linux atau bs=8mdi BSD
pascal
4
lol, saya pikir Anda akan mengatakan "Coba mulai bs=8388608dan kurangi sekali setiap langkah"
lindhe
1
  • untuk kinerja yang lebih baik gunakan blocksize terbesar yang dapat diakomodasi RAM (akan mengirim lebih sedikit panggilan I / O ke OS)
  • untuk akurasi dan pemulihan data yang lebih baik, atur blocksize ke ukuran sektor asli dari input

Saat dd menyalin data dengan opsi conv = noerror, sync, setiap kesalahan yang ditemuinya akan mengakibatkan sisa blok diganti dengan nol-byte. Ukuran blok yang lebih besar akan menyalin lebih cepat, tetapi setiap kali terjadi kesalahan, sisa blok diabaikan.

sumber

eadmaster
sumber
1
Saya pikir jika ada kesalahan penulisan, Anda harus mengganti medianya, bukan mengubah ukuran blok ...
unfa