Ukuran blok yang baik untuk kloning disk dengan diskdump (dd)

47

Saya menggunakan dd dalam bentuk paling sederhana untuk mengkloning hard drive:

dd if=INPUT of=OUTPUT

Namun, saya membaca di halaman manual bahwa dd mengetahui parameter blocksize. Apakah ada nilai optimal untuk parameter blocksize yang akan mempercepat prosedur kloning?

Phi
sumber

Jawaban:

32

64k tampaknya menjadi pilihan yang bagus:

Results:

  no bs=        78s     144584+0 records
  bs=512        78s     144584+0 records
  bs=1k         38s     72292+0 records
  bs=2k         38s     36146+0 records
  bs=4k         38s     18073+0 records
  bs=5k         39s     14458+1 records
  bs=50k        38s     1445+1 records
  bs=500k       39s     144+1 records
  bs=512k       39s     144+1 records
  bs=1M         39s     72+1 records
  bs=5M         39s     14+1 records
  bs=10M        39s     7+1 records

(diambil dari sini ).

ini cocok dengan temuan saya sendiri mengenai buffer baca / tulis untuk mempercepat program konverter io-heavy yang pernah saya pimping di @work.

akira
sumber
Harap perhatikan bahwa tolok ukur ini mungkin terlihat berbeda untuk drive berputar dan SSD.
Jiri
3
-1 Ini hampir sepenuhnya tergantung pada hard drive Anda. Alih-alih menggambarkan prosedur yang digunakan untuk mendapatkan nilai-nilai ini sehingga OP dapat mengulangi langkah-langkah untuk mendapatkan ukuran blok optimal untuk hard drive sendiri. Juga, Anda belum mencantumkan 64k dalam daftar hasil dan semua hasil yang melewati 1k kurang lebih sama.
Micheal Johnson
@MichealJohnson merasa bebas untuk mengedit posting ini dan mengambil deskripsi tentang bagaimana tabel itu dihasilkan dari tautan yang disediakan dan tempel di sini. 64k adalah nilai pertama yang tampaknya tidak menghasilkan peningkatan lebih lanjut dalam hal kecepatan DAN adalah keselarasan alami. dan ya, jelas bahwa kecepatan yang diukur sepenuhnya tergantung pada perangkat keras yang digunakan. ini benar 5 tahun yang lalu dan itu benar sekarang.
akira
1
Kenapa 64k? Bagi saya 2k tidak menghasilkan perbaikan lebih lanjut dan karenanya 1k adalah nilai terbaik, dan juga sejajar alami dengan 64k.
Micheal Johnson
Apakah ukuran blok mengubah kinerja kartu SD atau hanya memotong ukuran file yang bergerak menggunakan dd ke sdcard?
Trismegistos
23

dd akan dengan senang hati menyalin menggunakan BS apa pun yang Anda inginkan, dan akan menyalin sebagian blok (di akhir).

Pada dasarnya, parameter ukuran blok (bs) tampaknya mengatur jumlah memori yang digunakan untuk membaca dalam satu benjolan dari satu disk sebelum mencoba menulis benjolan itu ke yang lain.

Jika Anda memiliki banyak RAM, maka menjadikan BS besar (tetapi seluruhnya terkandung dalam RAM) berarti bahwa sub-sistem I / O digunakan sebanyak mungkin dengan melakukan banyak membaca dan menulis secara besar-besaran - mengeksploitasi RAM. Membuat BS kecil berarti bahwa I / O overhead sebagai proporsi dari total aktivitas naik.

Tentu saja dalam hal ini ada hukum pengembalian yang semakin berkurang. Perkiraan kasar saya adalah bahwa ukuran blok dalam kisaran sekitar 128K hingga 32M mungkin akan memberikan kinerja sedemikian rupa sehingga overhead lebih kecil dibandingkan dengan I / O biasa, dan menjadi lebih besar tidak akan membuat banyak perbedaan. Alasan batas bawah menjadi 128K hingga 32M adalah - itu tergantung pada OS Anda, perangkat keras, dan sebagainya.

Jika itu saya, saya akan melakukan beberapa percobaan pengaturan waktu salinan / klon menggunakan BS 128K dan lagi menggunakan (katakanlah) 16M. Jika seseorang jauh lebih cepat, gunakan itu. Jika tidak, gunakan BS yang lebih kecil dari keduanya.

dengan cepat_now
sumber
10

Bagi mereka yang berakhir di sini melalui Google, bahkan jika diskusi ini agak lama ...

Ingatlah bahwa dd bodoh karena suatu alasan: semakin sederhana, semakin sedikit cara untuk mengacaukannya.

Skema partisi yang kompleks (pertimbangkan hard drive dual-boot yang juga menggunakan LVM untuk sistem Linux-nya) akan mulai menarik bug dari kayu dalam program seperti Clonezilla. Filesystem yang tidak di-mount dapat meledakkan ntfsclone setinggi langit.

Sistem file korup yang dikloning sektor per sektor tidak lebih buruk dari aslinya. Sistem file yang rusak setelah "salinan cerdas" yang gagal mungkin berada dalam kondisi yang BENAR-BENAR menyesal.

Jika ragu, gunakan dd dan gunakan forensik. Pencitraan forensik memerlukan salinan sektor per sektor (pada kenyataannya, ini membutuhkan lebih banyak sektor daripada yang dapat Anda hasilkan dengan dd, tapi itu cerita panjang). Ini lambat dan membosankan tetapi itu akan menyelesaikan pekerjaan dengan benar.

Juga, kenali opsi "conv = noerror, sync", sehingga Anda dapat mengkloning drive yang mulai gagal - atau membuat ISO dari CD tergores ( batuk ) - tanpa perlu waktu berbulan-bulan.

Matt Heck
sumber
Apa yang dilakukan syncopsi? Halaman manual hanya mengatakan: "use synchronized I/O for data and metadata". Dengan apa kita menyinkronkan? Itu bisa banyak hal berbeda.
sherrellbc
1
@sherrellbc sync mengisi blok input dengan nol jika ada kesalahan baca, sehingga offset data tetap sinkron.
goetzc
9

Seperti yang orang lain katakan, tidak ada ukuran blok yang benar secara universal; apa yang optimal untuk satu situasi atau satu perangkat keras mungkin sangat tidak efisien untuk yang lain. Juga, tergantung pada kesehatan disk, mungkin lebih baik menggunakan ukuran blok yang berbeda dari apa yang "optimal".

Satu hal yang cukup dapat diandalkan pada perangkat keras modern adalah ukuran blok default 512 byte cenderung hampir urutan besarnya lebih lambat daripada alternatif yang lebih optimal. Ketika ragu, saya menemukan bahwa 64K adalah standar modern yang cukup solid. Meskipun 64K biasanya bukan ukuran blok yang optimal, dalam pengalaman saya itu cenderung jauh lebih efisien daripada standar. 64K juga memiliki sejarah yang cukup solid untuk menjadi pemain yang andal: Anda dapat menemukan pesan dari milis Eug-Lug, sekitar tahun 2002, merekomendasikan ukuran blok 64K di sini: http://www.mail-archive.com/eug- [email protected]/msg12073.html

Untuk menentukan ukuran blok keluaran optimal, saya telah menulis skrip berikut yang menguji penulisan file uji 128M dengan dd pada berbagai ukuran blok yang berbeda, dari default 512 byte ke maksimum 64M. Hati-hati, skrip ini menggunakan dd secara internal, jadi gunakan dengan hati-hati.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Lihat di GitHub

Saya hanya menguji skrip ini pada sistem Debian (Ubuntu) dan pada OSX Yosemite, jadi mungkin perlu beberapa penyesuaian untuk membuat pekerjaan pada rasa Unix lainnya.

Secara default perintah akan membuat file uji bernama dd_obs_testfile di direktori saat ini. Atau, Anda bisa memberikan lintasan ke file pengujian khusus dengan memberikan lintasan setelah nama skrip:

$ ./dd_obs_test.sh /path/to/disk/test_file

Output dari skrip adalah daftar ukuran blok yang diuji dan laju transfer masing-masing seperti:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Catatan: Unit tingkat transfer akan bervariasi berdasarkan OS)

Untuk menguji ukuran blok baca optimal, Anda dapat menggunakan lebih atau kurang proses yang sama, tetapi alih-alih membaca dari / dev / nol dan menulis ke disk, Anda akan membaca dari disk dan menulis ke / dev / null. Script untuk melakukan ini mungkin terlihat seperti ini:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Lihat di GitHub

Perbedaan penting dalam hal ini adalah bahwa file uji adalah file yang ditulis oleh skrip. Jangan arahkan perintah ini ke file yang ada atau file yang ada akan ditimpa dengan data acak!

Untuk perangkat keras khusus saya, saya menemukan bahwa 128K adalah ukuran blok input paling optimal pada HDD dan 32K paling optimal pada SSD.

Meskipun jawaban ini mencakup sebagian besar temuan saya, saya sudah cukup sering menghadapi situasi ini sehingga saya menulis posting blog tentang hal itu: http://blog.tdg5.com/tuning-dd-block-size/ Anda dapat menemukan lebih banyak spesifik pada tes yang saya lakukan di sana.

Posting StackOverflow ini juga dapat membantu: dd: Bagaimana cara menghitung blocksize yang optimal?

tdg5
sumber
3

Ya, tetapi Anda tidak akan menemukannya tanpa banyak pengujian. Saya telah menemukan bahwa 32M adalah nilai yang baik untuk digunakan.

Ignacio Vazquez-Abrams
sumber
1

mengkloning boot drive lama ke ssd baru pada sata eksternal (ssd ke ssd)

  • menggunakan linux Ubuntu 18.04.2 LTS 64bit
  • hp xw4600 (RAM 8GB, intel Core 2 Quad Q6700 @ 2.66GHz 4c / 4t no-HT)

menggunakan Disk (alat)> format> ATA Secure Erase (2 menit)

$ lsblk -l /dev/sd?
NAME MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda    8:0    0 119,2G  0 disk 
sda1   8:1    0 119,2G  0 part /
sdb    8:16   0   2,7T  0 disk 
sdc    8:32   0   2,7T  0 disk 
sdd    8:48   0  12,8T  0 disk 
sde    8:64   0   2,7T  0 disk
sdf    8:80   1 465,8G  0 disk 

$ sudo fdisk -l /dev/sda
Disk /dev/sda: 119,2 GiB, 128035676160 bytes, 250069680 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

$ sudo fdisk -l /dev/sdf
Disk /dev/sdf: 465,8 GiB, 500107862016 bytes, 976773168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
  • sda: Kingston SSD (lama; Disk melaporkan tingkat rd rata-rata 263 MB / s dengan puncak mendekati 270 MB / s - tidak ada tes tulis karena disk sistem)
  • sdf: Krusial MX500, 500GB, CT500MX500SSD1 (Laporan disk: tingkat rd / wr rata-rata 284/262 MB / s, dan waktu akses 0,05 m, dengan puncak sekitar 290/270 MB / s)

Tes berjalan:

$ sudo dd if=/dev/sda of=/dev/sdf
250069680+0 records in
250069680+0 records out
128035676160 bytes (128 GB, 119 GiB) copied, 3391,72 s, 37,7 MB/s
#       --vvvvv--                            *********
$ sudo dd bs=1M if=/dev/sda of=/dev/sdf
122104+1 records in
122104+1 records out
128035676160 bytes (128 GB, 119 GiB) copied, 473,186 s, 271 MB/s
#                                            *********  ********

percobaan kedua setelah penghapusan aman dengan hasil yang sama:

128035676160 bytes (128 GB, 119 GiB) copied, 472,797 s, 271 MB/s
kgSW.de
sumber
Selamat Datang di Pengguna Super! Terima kasih atas jawaban Anda, tetapi saya sarankan Anda mengeditnya untuk menyertakan ringkasan; di antara semua keluaran yang dikutip, saya merasa sulit untuk menemukan apa jawaban Anda yang sebenarnya! Cheers
bertieb