Saya memiliki situasi yang sangat timpang saat ini tentang memindahkan data melintasi lingkungan di tempat kerja.
Data-data ini adalah dump database, indeks Solr atau gambar sederhana. Proses kami adalah: "tarball data" + "rsync / scp data ke lingkungan lain / mesin" + "buka paket data".
Ukuran data tersebut bervariasi dari beberapa Gigabytes hingga maksimal ~ 1 Terabytes.
Beberapa proses "scripted" lainnya masih membutuhkan pemrosesan manual.
Pokoknya masalah utama adalah waktu untuk mengemas / membongkar dan rsync data.
Mempertimbangkan kinerja dan "automatisme", adakah strategi yang lebih baik untuk memindahkan data?
sumber
Kemungkinan lain tergantung pada apa yang Anda coba lakukan adalah mereplikasi data di tingkat blok - misalnya menggunakan DRBD atau MARS pada LVM dan menggunakan snapshotting untuk PITR dan / atau memodifikasi data dari salinan gambar - hanya perlu diketahui bahwa snapshot LVM memperlambat IO turun cukup banyak pada subsistem yang sedang snapshotted.
sumber