Pedoman untuk jumlah maksimum disk dalam set RAID?

13

Di salah satu level RAID yang menggunakan striping, meningkatkan jumlah disk fisik biasanya meningkatkan kinerja, tetapi juga meningkatkan kemungkinan salah satu disk gagal diatur. Saya punya ide bahwa saya tidak boleh menggunakan lebih dari sekitar 6-8 disk dalam set RAID yang diberikan tapi itu lebih dari sekedar pengetahuan dan bukan fakta yang sulit dari pengalaman. Adakah yang bisa memberi saya aturan yang baik dengan alasan di belakang mereka untuk jumlah disk maksimum dalam satu set?

kbyrd
sumber

Jawaban:

10

Jumlah maksimum disk yang disarankan dalam sistem RAID sangat bervariasi. Itu tergantung pada berbagai hal:

  • Teknologi disk SATA mentoleransi array yang lebih kecil daripada SAS / FC, tetapi ini sedang berubah.
  • Batas Pengontrol RAID Pengontrol RAID itu sendiri mungkin memiliki fundamental maksimum. Jika berbasis SCSI dan setiap disk yang terlihat adalah LUN, aturan 7/14 berlaku. Jika berbasis FibreChannel, dapat memiliki hingga 120 atau lebih disk yang terlihat.
  • Prosesor RAID Controller Jika Anda menggunakan RAID paritas apa pun, CPU dalam kartu RAID akan menjadi pembatas seberapa cepat Anda dapat menulis data. Akan ada maksimum fundamental untuk kartu. Anda akan melihatnya ketika drive gagal dalam RAID5 / 6 LUN, karena penurunan kinerja akan mempengaruhi semua LUN yang terkait dengan kartu RAID.
  • Bandwidth bus U320 SCSI memiliki batasnya sendiri, seperti halnya FibreChannel. Untuk menjaga SCSI anggota RAID di saluran yang berbeda dapat meningkatkan paralelisme dan meningkatkan kinerja, jika controller mendukungnya.

Untuk RAID berbasis SATA, Anda tidak ingin memiliki lebih dari 6.5TB disk mentah jika Anda menggunakan RAID5. Melewati daripada dan RAID6 adalah ide yang jauh lebih baik. Ini karena tingkat kesalahan baca yang tidak dapat dipulihkan. Jika ukuran array terlalu besar, kemungkinan kesalahan baca yang tidak dapat dipulihkan terjadi selama array dibangun kembali setelah kerugian semakin tinggi. Jika itu terjadi, itu sangat buruk. Memiliki RAID6 sangat mengurangi paparan ini. Namun, drive SATA telah meningkatkan kualitas akhir-akhir ini, jadi ini mungkin tidak berlaku untuk waktu yang lama.

Jumlah spindle dalam array tidak terlalu mengkhawatirkan saya, karena cukup sederhana untuk mencapai 6.5TB dengan drive 500GB pada U320. Jika melakukan itu, itu ide yang baik untuk meletakkan setengah dari drive pada satu saluran dan setengah pada yang lain hanya untuk mengurangi pertikaian I / O di sisi bus. Kecepatan SATA-2 sedemikian rupa sehingga bahkan hanya dua disk yang mentransfer pada kecepatan maksimum dapat memenuhi bus / saluran.

Disk SAS memiliki tingkat MTBF lebih rendah dari SATA (sekali lagi, ini mulai berubah) sehingga aturannya kurang tegas di sana.

Ada array FC yang menggunakan drive SATA secara internal. Kontroler RAID di sana sangat canggih, yang membingungkan aturan praktis. Misalnya, baris array EVA HP mengelompokkan disk menjadi 'grup disk' tempat LUN diletakkan. Pengontrol dengan sengaja menempatkan blok untuk LUN di lokasi yang tidak berurutan, dan melakukan level-load pada blok di belakang layar untuk meminimalkan hot-spotting. Yang jauh mengatakan bahwa mereka melakukan banyak pekerjaan berat untuk Anda sehubungan dengan beberapa saluran I / O, spindle terlibat dalam LUN, dan berurusan dengan redundansi.

Kesimpulannya, tingkat kegagalan untuk disk tidak mengarahkan aturan untuk berapa banyak spindle dalam kelompok RAID, kinerja tidak. Sebagian besar.

sysadmin1138
sumber
3

Jika Anda mencari kinerja, maka penting untuk memahami interkoneksi yang Anda gunakan untuk memasang drive ke array. Untuk SATA atau IDE, Anda akan melihat 1 atau 2 per saluran, masing-masing (dengan asumsi Anda menggunakan pengontrol dengan saluran independen). Untuk SCSI, ini sangat tergantung pada topologi bus. SCSI awal memiliki batas perangkat 7 perangkat ID per rantai (alias. Per controller), salah satunya harus menjadi controller itu sendiri, sehingga Anda akan memiliki 6 perangkat per rantai SCSI. Teknologi SCSI yang lebih baru memungkinkan hampir dua kali lipat dari angka itu, jadi Anda akan melihat 12+. Kuncinya di sini adalah bahwa throughput gabungan semua drive tidak dapat melebihi kapasitas interkoneksi , jika drive Anda akan "idle 'ketika mereka berada di kinerja puncak.

Perlu diingat bahwa drive bukan satu-satunya tautan lemah di sini; setiap interkoneksi tanpa redundansi menghasilkan satu titik kegagalan tunggal. Jika Anda tidak mempercayai saya, atur array RAID 5 pada kontroler SCSI rantai tunggal, kemudian pendekkan controller. Masih bisakah Anda mendapatkan data Anda? Ya, itulah yang saya pikirkan.

Hari ini, banyak hal telah berubah sedikit. Drive belum maju banyak dalam hal kinerja, tetapi kemajuan yang terlihat cukup signifikan sehingga kinerja cenderung tidak menjadi masalah kecuali jika Anda bekerja dengan "drive farms", dalam hal ini Anda berbicara tentang infrastruktur yang sama sekali berbedadan jawaban / percakapan ini bisa diperdebatkan. Apa yang Anda mungkin khawatirkan adalah redundansi data. RAID 5 bagus di masa jayanya karena beberapa faktor, tetapi faktor-faktor itu telah berubah. Saya pikir Anda akan menemukan bahwa RAID 10 mungkin lebih sesuai dengan keinginan Anda, karena RAID akan memberikan redundansi tambahan terhadap kegagalan drive sambil meningkatkan kinerja membaca. Performa menulis akan sedikit berkurang, tetapi itu dapat dikurangi melalui peningkatan saluran aktif. Saya akan mengambil setup RAID 10 4-drive lebih dari setup RAID 5 5-drive setiap hari, karena setup RAID 10 dapat bertahan dari (khusus kasus) kegagalan dua drive, sedangkan array RAID 5 hanya akan berguling dan mati dengan kegagalan dua drive. Selain memberikan redundansi yang sedikit lebih baik, Anda juga dapat mengurangi "controller sebagai satu titik kegagalan" situasi dengan membelah cermin menjadi dua bagian yang sama, dengan masing-masing pengontrol menangani hanya garis. Jika terjadi kegagalan pengontrol, garis Anda tidak akan hilang, hanya efek cermin.

Tentu saja, ini mungkin juga benar-benar salah untuk keadaan Anda. Anda harus melihat pengorbanan yang terlibat antara kecepatan, kapasitas, dan redundansi. Seperti lelucon rekayasa lama, "lebih baik-lebih murah-lebih cepat, pilih dua", Anda akan menemukan Anda dapat hidup dengan konfigurasi yang cocok untuk Anda, bahkan jika itu tidak optimal.

Avery Payne
sumber
2

RAID 5 Saya akan mengatakan 0 drive per array. Lihat http://baarf.com/ atau kata-kata kasar serupa dari sejumlah sumber lain.

RAID 6 Saya akan mengatakan 5 drive +1 untuk setiap cadangan panas per array. Kurang dan Anda mungkin juga melakukan RAID 10, lagi dan Anda mendorong faktor risiko dan harus pergi ke RAID 10.

RAID 10 berjalan setinggi yang Anda suka.

pplrppl
sumber
1

Saya menggunakan 7 sebagai angka maksimum "ajaib". Bagi saya, ini adalah kompromi yang baik antara ruang yang hilang untuk redundansi (dalam kasus ini, ~ 14%) dan waktu untuk membangun kembali (bahkan jika LUN tersedia saat membangun kembali) atau menambah ukuran, dan MTBF.

Jelas, ini telah bekerja sangat baik untuk saya ketika bekerja dengan lampiran SAN-disk 14. Dua klien kami memiliki penutup 10 disk, dan angka ajaib 7 dikurangi menjadi 5.

Secara keseluruhan, 5-7 telah bekerja untuk saya. Maaf, tidak ada data ilmiah dari saya juga, hanya pengalaman dengan sistem RAID sejak tahun 2001.

ΤΖΩΤΖΙΟΥ
sumber
Jadi Anda bisa dengan aman mengatakan "potong kandang Anda menjadi dua", lalu, sepertinya. Saya punya 12 disk enclosure yang saya punya 10 disk array RAID 10 dengan 2 suku cadang panas, tapi saya belum harus membangunnya lagi, untungnya.
Matt Simmons
1

Maksimum efektif adalah bandwidth pengontrol RAID.

Katakanlah disk baca maks 70MB / detik. Dalam beban puncak, Anda tidak dapat menyekop data dengan cukup cepat. Untuk server file sibuk (RAID 5) atau server db (RAID 10), Anda dapat menekan ini dengan cepat.

SATA-2 adalah spesifikasi antarmuka 300MB / S, SCSI Ultra 320 akan lebih konsisten. Anda berbicara 6-10 disk karena Anda tidak akan terlalu sering mencapai puncak.

gbn
sumber
0

Batas disk dalam RAID yang digunakan ditentukan oleh jumlah perangkat pada SCSI BUS. Hingga 8 atau 16 perangkat dapat dilampirkan ke satu bus dan pengontrol dihitung sebagai satu perangkat - jadi itu 7 atau 15 disk.

Karenanya banyak RAID adalah 7 disk (satu adalah cadangan panas) sehingga itu berarti 6 disk tersisa - atau 14 disk dengan 1 cadangan panas.

Jadi hal terbesar tentang disk dalam grup RAID mungkin adalah berapa banyak IOPS yang Anda butuhkan.

Sebagai contoh disk 10 RPM SCSI dapat berjalan sekitar 200 IOPS - jika Anda memiliki 7 dari mereka dalam RAID 5 - Anda akan kehilangan 1 disk untuk paritas tetapi kemudian memiliki 6 disk untuk membaca / menulis dan maksimum teoritis 1.200 IOPS - jika Anda membutuhkan lebih banyak IOPS - tambahkan lebih banyak disk (200 IOPS per disk).

Dan cakram 15k RPM SAS yang lebih cepat dapat mencapai 250 IOPS, dll.

Dan kemudian selalu ada SSD (30.000 IOPS per disk) dan mereka dapat digerebek (meskipun sangat mahal).

Dan saya pikir SAS memiliki nilai maksimum gila untuk sejumlah perangkat - seperti 16.000 drive

Rob Bergin
sumber
0

Dengan RAID6 dan SATA, saya telah sukses dengan 11 disk ... Dan satu cadangan panas (beberapa pengendali buruk akan membutuhkan dua cadangan panas untuk melakukan pembangunan kembali RAID6). Ini nyaman karena banyak JBOD datang dalam kelompok 12 disk seperti HP MSA60.

Alexandre Carmel-Veilleux
sumber
0

Sampai Anda mencapai kecepatan maksimum bus di titik yang lebih sempit di rantai (kartu raid, tautan), jadi itu masuk akal. Hal yang sama ketika Anda menambahkan banyak NIC 1GbE ke bus PCI Anda, tidak masuk akal.


sumber