Saya melihat penerapan server penyimpanan yang sangat besar untuk digunakan sebagai NAS langsung untuk beberapa server lain (semua berbasis Linux).
Dengan sangat besar, maksud saya antara 4TB dan 20TB ruang yang dapat digunakan (meskipun tidak mungkin kita akan benar-benar membuatnya 20TB).
Server penyimpanan akan menjadi RAID 10 untuk keamanan dan kinerja data, tetapi kami masih membutuhkan solusi cadangan termasuk cadangan di luar lokasi.
Pertanyaan saya adalah: Bagaimana Anda membuat cadangan data sebanyak itu !?
Ini tidak seperti saya hanya bisa menghubungkan hard drive portabel dan mentransfer file. Saat ini kami tidak memiliki perangkat lain dengan ruang penyimpanan sebanyak ini.
Apakah saya perlu membuat anggaran untuk server penyimpanan kedua di luar situs atau apakah ada solusi yang lebih baik?
sumber
Jawaban:
Ada banyak cara untuk menangani data sebesar itu. Banyak hal tergantung pada lingkungan Anda dan berapa banyak uang yang bersedia Anda keluarkan. Secara umum ada beberapa strategi 'ambil data dari server' secara keseluruhan:
Itulah tampilan 100km. Setelah Anda mulai memperbesar hal-hal menjadi jauh lebih terfragmentasi. Seperti yang telah disebutkan, LTO5 adalah teknologi pita spesifik yang dirancang untuk jenis beban kepadatan tinggi ini. Array penyimpanan identik lainnya adalah target yang baik, terutama jika Anda dapat menggunakan sesuatu seperti GlusterFS atau DRBD untuk mendapatkan data di sana. Juga, jika Anda memerlukan rotasi cadangan atau hanya kemampuan untuk tetap berjalan jika array gagal akan mempengaruhi apa yang Anda tempatkan.
Setelah Anda memilih metode tampilan 100km, masuk ke perangkat lunak akan menjadi tugas besar berikutnya. Faktor-faktor yang memengaruhi ini adalah apa yang dapat Anda instal pada server penyimpanan Anda di tempat pertama (jika itu adalah NetApp, itu satu hal, server Linux dengan banyak penyimpanan adalah hal yang sama sekali berbeda, seperti halnya server Windows dengan banyak penyimpanan) , perangkat keras apa yang Anda pilih (tidak semua paket cadangan FOSS menangani perpustakaan tape dengan baik, misalnya), dan jenis retensi cadangan yang Anda butuhkan.
Anda benar-benar perlu mencari tahu Pemulihan Bencana seperti apa yang Anda inginkan. Replikasi langsung sederhana lebih mudah, tetapi tidak memungkinkan Anda untuk memulihkan dari minggu lalu saja. Jika kemampuan untuk memulihkan dari minggu lalu penting bagi Anda, maka Anda perlu merancang untuk hal semacam itu. Secara hukum (di AS dan tempat lain), beberapa data perlu disimpan selama 7+ tahun.
Replikasi sederhana adalah yang paling mudah dilakukan. Inilah yang dirancang DRBD untuk dilakukan. Setelah salinan awal selesai, itu hanya mengirimkan perubahan. Faktor-faktor rumit di sini adalah lokalitas jaringan, jika larik ke-2 Anda tidak dekat dengan DRBD utama mungkin tidak layak. Anda akan membutuhkan server penyimpanan kedua dengan ruang penyimpanan setidaknya sebanyak yang pertama.
Tentang cadangan kaset ...
LTO5 dapat menampung 1.5TB data tanpa kompresi. Memberi makan monster-monster ini membutuhkan jaringan yang sangat cepat, baik itu Fibre Channel atau SAS 6Gb. Karena Anda perlu mencadangkan lebih dari 1.5TB dalam pukulan keras, Anda perlu memeriksa autoloader (berikut adalah contohnya: tautan , autoloader 1-drive 24-slot 1-drive dari HP). Dengan perangkat lunak yang mendukungnya, mereka akan menangani penggantian kaset tengah untuk Anda. Mereka hebat. Anda masih harus menarik kaset untuk dikirim ke luar situs, tapi itu pemandangan yang lebih baik daripada berkeliaran sepanjang malam untuk memuat kaset sendiri ketika cadangan memanggil mereka.
Jika tape memberi Anda ' legacy, ew ' heebiegeebies, Virtual Tape Library mungkin lebih mempercepat Anda (seperti yang ini dari Quantum: link ). Ini berpura-pura menjadi tape library ke perangkat lunak cadangan sementara sebenarnya menyimpan sesuatu ke disk dengan teknik de-duplikasi yang kuat (Anda harap). Yang lebih keren bahkan akan menyalin kaset virtual ke kaset nyata untuk Anda, jika Anda suka hal semacam itu, yang bisa sangat berguna untuk rotasi di luar situs.
Jika Anda tidak ingin mempermasalahkan bahkan dengan kaset virtual, tetapi masih ingin melakukan backup direct-to-disk, Anda akan memerlukan array penyimpanan berukuran cukup besar untuk menangani 20TB itu, ditambah betapapun banyaknya data perubahan bersih yang Anda inginkan untuk terus memegang. Paket cadangan yang berbeda menangani ini secara berbeda. Beberapa teknologi de-duplikasi benar-benar bagus, yang lain adalah kludges hacky. Saya pribadi tidak tahu keadaan paket perangkat lunak cadangan FOSS di area ini (saya pernah mendengar tentang Bacula), tetapi mungkin cukup. Banyak paket cadangan komersial memiliki agen lokal yang Anda instal di server yang akan didukung untuk meningkatkan throughput, yang memiliki banyak manfaat.
sumber
Jukebox Wajib-5? Anda akan membutuhkan antara tiga dan 15 kaset untuk mendukung susunan itu, yang bukan jumlah besar. Jukebox akan mengganti kaset untuk Anda, dan perangkat lunak cadangan yang baik (misalnya bacula) akan melacak file mana yang ada di pita mana.
Anda juga akan ingin mempertimbangkan waktu yang diperlukan untuk membuat cadangan sistem file yang besar, karena sangat mungkin FS akan berubah selama periode itu. Untuk hasil terbaik, sistem file yang mendukung snapshot akan sangat membantu, sehingga Anda dapat mengambil snapshot instan dan melakukan backup penuh atau tambahan terhadap itu, alih-alih terhadap sistem file langsung.
sumber
Anda mungkin harus melihat mencadangkan ke disk , karena rekaman akan memakan waktu lama, dan menjadi akses berurutan, mengembalikan akan memakan waktu lama.
Pasti memanfaatkan cadangan diferensial atau tambahan - hanya mencadangkan perubahan, pada frekuensi apa pun yang masuk akal bagi Anda.
Mungkin solusi ideal akan memiliki server berukuran 2 yang serupa di lokasi lain , di mana cadangan tambahan dikirim secara teratur, dan itu dapat ditukar dengan cepat jika server utama pernah mati. Namun opsi lain adalah menggunakan drive yang dapat dilepas di lokasi, yang kemudian dibawa ke luar kantor untuk penyimpanan.
Saat Anda berurusan dengan data sebanyak itu, masuk akal untuk memecah cadangan Anda menjadi pekerjaan cadangan yang lebih kecil, dan jika semuanya tidak dapat dicadangkan setiap hari, goyangkan cadangan Anda sehingga atur A akan dicadangkan satu hari, dan atur B berikutnya.
Selalu berpikir tentang prosedur pemulihan . Kami tersengat sekali ketika kami harus mengembalikan file dari pekerjaan cadangan beberapa ratus-manggung, yang membutuhkan banyak memori dan banyak waktu untuk membangun kembali indeks cadangan dan memulihkan. Pada akhirnya kami tidak dapat menyelesaikannya dalam sehari, dan harus membangun server pemulihan khusus untuk memungkinkan server cadangan utama kami melanjutkan pekerjaan malam hari!
--added--
Anda juga ingin memikirkan teknologi deduplikasi , yang dapat menghemat banyak ruang dengan tidak mencadangkan informasi yang sama beberapa kali, untuk banyak pengguna. Banyak solusi cadangan atau sistem file menawarkan deduplikasi sebagai bagian dari fungsionalitasnya.
sumber
thinking about the restore procedure
. Amin!Pertama, sebutkan risiko yang Anda lindungi. Beberapa risiko umum:
Kemudian evaluasi biaya berbagai solusi penghindaran risiko, misalnya:
Kemudian evaluasi strategi rotasi (seberapa jauh Anda ingin dapat pulih, berapa banyak data yang Anda bisa kehilangan).
Kemudian pilih nilai data Anda.
sumber
Saya memiliki pelanggan dengan dua sistem 12 TB serupa di dua gedung yang berbeda, terhubung pada 1GB. Salah satunya adalah sistem produksi; itu didukung secara bertahap (dengan snapshot harian) ke yang lain dengan utilitas rdiff-backup yang hebat. rdiff-backup harus tersedia di repositori distribusi standar Anda.
sumber
Pencadangan online, remote (cermin jarak jauh)
gunakan rsync meskipun ssh (hanya perubahan) - backup pertama harus dilakukan secara lokal, tetapi setelah itu backup akan sangat mudah tergantung pada perubahan
jika Anda perlu menyimpan versi dengan perubahan-rdiff-backup
http://www.nongnu.org/rdiff-backup/
sistem file btrfs di Linux terdengar menjanjikan, tetapi masih dalam pengembangan
sumber
Lihatlah "konten" Anda yang sebenarnya dan seberapa sering itu berubah sebelum Anda merencanakan strategi Anda. Banyak kali orang hanya membuat data yang sama untuk direkam setiap minggu berulang kali tanpa alasan yang jelas.
Teknologi deduplikasi dari beberapa vendor dapat memungkinkan snapshotting untuk menyelamatkan Anda dari pemulihan file individual, tetapi Anda akan selalu membutuhkan di luar kantor untuk perlindungan.
sumber