Investigasi di luar RAID untuk disk cluster di server, apakah Dynamic Disk Pool dapat dibandingkan? [Tutup]

9

Dengan pengembangan sistem hyperconverged, kita dapat melihat teknologi selain RAID untuk menangani penyimpanan terdistribusi (seperti Ceph misalnya atau VSAN atau penyimpanan terdistribusi seperti di nutanix).

Tetapi apakah ada teknologi open source yang berasal dari penyimpanan objek yang dapat saya gunakan pada satu server dengan banyak disk besar, katakanlah selusin disk 12To sata, yang akan memastikan keamanan data tetapi tanpa kekurangan waktu membangun kembali yang besar ketika mengganti sebuah disk. Jadi Dynamic Disk Pool adalah bentuk de-clustered RAID yang dapat digunakan pada level blok seperti iscsi atau level sistem file seperti zfs atau brtrfs.

Saya ingin memberikan fitur yang mirip dengan ruang SIMNOLOGI (NFS, target iscsi, SMB) tetapi tanpa RAID untuk penyimpanan blok.

terima kasih atas indikasinya.

dominix
sumber
Sudahkah Anda mempertimbangkan (misalnya) Array RAID 5 dengan drive keenam sebagai cadangan panas?
Mike Waters
1
Semua orang merekomendasikan untuk tidak menggunakan RAID5 untuk volume besar. Btw raid5 tidak berarti 5 disk. Tapi ya cadangan panas direkomendasikan, namun saya sudah mengalami masalah dengan cadangan panas, kadang cadangan panas mati karena mereka telah berputar selama bertahun-tahun sebelum digunakan.
dominix
Anda membutuhkan lebih banyak disk. Satu-satunya solusi untuk membangun kembali penundaan adalah lebih banyak redundansi. Juga menghapus kode.
Dan D.

Jawaban:

7

Untuk sistem tunggal, saya benar-benar menyarankan untuk tetap tahu dan melakukan array RAID. Toko objek memiliki penalti kinerja yang signifikan dibandingkan dengan akses blok / file klasik dan, jika Anda tidak skala, Anda kehilangan banyak manfaatnya.

Yang mengatakan, tidak termasuk RAID klasik Anda memiliki kemungkinan berikut:

  • tidak takut , yang menggunakan pendekatan replikasi tingkat file daripada yang tingkat blok

  • glusterfs , mengkonfigurasi bata yang berbeda untuk setiap disk dan menerapkan replica 2kebijakan

  • zfs yang, meskipun berbasis blok, tidak 100% identik dengan perangkat lunak klasik atau RAID perangkat keras

Perhatikan juga bahwa penyimpanan objek tidak menjamin waktu bangun kembali yang lebih rendah; sebaliknya, ia menangani pembangunan kembali yang lama dengan menjamin kebijakan replikasi yang lebih kuat (yaitu: replica 3lebih dari rak yang berbeda).

shodanshok
sumber
Keuntungan besar ZFS dalam buku saya adalah ia dapat benar-benar memberi tahu Anda file mana, jika ada, yang telah rusak; dan jika Anda bisa membacanya, Anda tahu itu tidak rusak. (Kecuali jika Anda sudah melakukannya zfs set checksum=off, tapi saya tidak bisa membayangkan mengapa ada orang yang menjalankan ZFS dan melakukan itu.) Bahkan tidak ada redundansi penyimpanan, ini bisa menjadi keuntungan besar karena Anda akan tahu persis mana dari bos Anda ... er , spreadsheet penting ... perlu dipulihkan dari cadangan.
CVn
7

"Itu akan memastikan keamanan data tetapi tanpa kekurangan waktu membangun kembali yang besar ketika mengganti disk"

Anda memiliki khayalan bahwa Anda pikir perangkat lunak dapat mengubah kenyataan - yaitu fisika. Kali membangun kembali kali pada dasarnya lari ke harus menulis Disc compelete dan jika Anda menulis 2tb info pada disk itu membutuhkan waktu lama KARENA ITULAH BAGAIMANA CARA DISC TELAH. Terutama jika Anda HARUS membaca banyak cakram untuk mendapatkan data yang hilang pada langkah pertama (Raid 5,6 analog). Ada rincian bagaimana perangkat lunak "bodoh" dapat (yaitu menambah waktu di atas minimum fisik), tetapi minimum sudah berjam-jam jika Anda berbicara tentang cakram SATA besar yang lambat.

Semua teknologi lain yang Anda sebutkan harus mematuhi waktu besar bermasalah yang sama yang ingin Anda hindari karena - fisika.

Dan itu tidak membantu bahwa jaringan cluster Anda - jika Anda melakukan replikasi jaringan - menggunakan 10g atau lebih rendah (yang merupakan kasus yang paling mungkin) alih-alih menjadi 40g atau 100g.

TomTom
sumber
Majikan saya membuat penganalisa jaringan yang pada dasarnya adalah PC standar dengan NIC standar 2 * 100 GbE yang menganalisis lalu lintas streaming video yang tidak terkompresi secara realtime. Jadi, itu tidak sepenuhnya aneh, tetapi secara pragmatis, ya, kecepatan jaringan kemungkinan akan menjadi hambatan tambahan.
Jörg W Mittag
Nah, semua server saya 2x100gb nic hari ini - tetapi kemudian departemen TI pelanggan utama saya menjual 1gb (!) Kecepatan jaringan backend sebagai "kinerja tinggi". Dunia tampaknya berjalan dengan prople yang bahkan tidak tahu apa itu high end.
TomTom
1
Bukankah waktu pembangunan kembali akan berkurang secara drastis jika semua disk adalah SSD?
Mike Waters
1
Tergantung. Ok, tidak - ya, itu akan dikurangi, tetapi SATA juga mencapai 600mb / s dan jika Anda menjalankan jaringan hyperconvergent, itu juga berarti harus melalui jaringan. Dan Anda bahkan tidak memerlukan semua SSD - cache SSD yang layak juga harus membantu membaca dan menulis (saya menggunakan cache SSD 3.6gb di setiap server). Tapi sungguh Anda membutuhkan tulang punggung untuk menangani ini, kalau begitu.
TomTom
1
Mike berkata SSD, bukan SATA. Ada beberapa SSD yang terhubung dengan PCIe yang lebih cepat dari 600MB / s.
Peter Cordes