Menambahkan Penyimpanan 60TB ke Server SLES 10

10

Saya harus menambahkan beberapa penyimpanan arsip \ staging ke Server SLES 10. Persyaratannya adalah untuk menyajikan volume yang cukup besar (masing-masing sekitar 9-20TB, sekitar 60TB atau lebih) yang akan digunakan untuk menyimpan data arsip (secara harfiah, ini untuk perpustakaan) yang terdiri dari file gambar besar (150Meg Tiff untuk sebagian besar) dan tarbal besar. Data akan sangat bias membaca IO, tentu> 95% dan mungkin lebih dari 99%.

Penyimpanan telah dibeli - daisy array Dell MD3000 SAS dirantai dengan 2 MD1000 yang terisi penuh dengan drive SATA 2TB 7200 RPM, total 45 drive. Tumpukan array terhubung menggunakan dua adapter SAS eksternal porting ganda yaitu ada 4 jalur ke stack.

Maksud saya adalah untuk mengonfigurasikan ini sebagai satu set 4 volume duduk di 4 kelompok RAID dengan satu cadangan panas per array. Semua grup akan menjadi RAID 6 dengan 7 atau 14 drive, dan setiap grup RAID akan disajikan sebagai LUN tunggal menggunakan semua kapasitas dalam grup tersebut. Di sisi SLES ini perlu diformat sebagai volume XFS.

Saya memiliki pengalaman terbatas dengan SLES (dan Linux pada umumnya) dan saya mencari beberapa rekomendasi tentang ini, khususnya:

  1. Apakah ada hal-hal khusus yang harus diperhatikan ketika mengonfigurasi volume XFS dengan ukuran ini di bawah SLES 10, yaitu apakah pengaturan default akan baik-baik saja mengingat profil IO?
  2. Apa cara terbaik untuk menginisialisasi \ partisi \ format ini? Saya menggunakan Parted untuk mengatur label Disk dan YAST Partition Manager (menerima semua default) untuk membuat dan memformat volume XFS untuk pengujian awal saya.
  3. Bagaimana cara mengatur multipathing? Ketika saya menyajikan volume pengujian awal, ia muncul sebagai empat perangkat terpisah (/ dev / sdl, / dev / sdm, / dev / sdn dan / dev / sdn). Apa yang saya lakukan untuk bekerja dengan ini sebagai volume tunggal?
  4. Dalam pengujian awal saya, saya melihat tingkat transfer dari volume SAN EMC Clariion yang ada sekitar 30Meg / detik. Ini jauh lebih rendah daripada yang saya perkirakan, bahkan terhitung untuk penalti penulisan RAID 6 yang saya harapkan akan melihat sesuatu di ballpark 70-100Meg / detik.
  5. Bagaimana saya bisa tahu apakah semuanya baik-baik saja - di mana saya harus mencari kesalahan \ peringatan dll? Editor YAST Partition membutuhkan waktu yang sangat lama untuk diluncurkan sebagai contoh dan saya ingin memahami alasannya.
  6. Apakah Anda akan mempartisi ini secara berbeda dan \ atau menggunakan sistem file yang berbeda dan jika demikian mengapa?

Servernya adalah Dell 2950 - Saya belum memeriksa spesifikasi terperinci tetapi paling atas menunjukkan utilisasi melayang di angka tunggal yang rendah paling banyak.

Helvick
sumber

Jawaban:

4

Di pekerjaan saya sebelumnya, kami memiliki masalah yang sama. Kami melakukan produksi untuk planetarium dan masing-masing bingkai adalah 64 MegaPixels. Banyak gambar besar. Ini akan diproses untuk setiap teater dalam operasi membaca yang sangat agresif melalui sekelompok komputer.

Server dalam hal ini memiliki pengaturan penyimpanan yang serupa. Beberapa array RAID langsung eksternal yang terpasang. Masing-masing dalam volume RAID6 terkena host dan ditambahkan ke VG (Volume Group) di bawah LVM (Logical Volume Manager). Setiap pertunjukan / produksi kemudian akan mendapatkan LV (Logical Volume) mereka sendiri, diformat XFS, yang kita akan tumbuh dengan proyek sesuai kebutuhan.

Jika dataset Anda cukup statis atau tumbuh dengan cara yang dapat diprediksi seperti ini maka pendekatan ini akan bekerja dengan baik untuk Anda. Namun hati-hati pendekatan ini memang memiliki sisi buruk. Anda akhirnya harus mengelola mikro LV di penyimpanan Anda. Beberapa admin lebih suka dengan cara ini tetapi yang lain akan berusaha menghindarinya. Tetapi ini memungkinkan Anda untuk menumbuhkan setiap sistem file LV dan XFS seiring bertambahnya dataset. Menyimpan volume XFS Anda sekecil mungkin agar Anda tidak terjebak dengan fsck yang membutuhkan waktu bertahun-tahun untuk menyelesaikannya. Dan dapat bertindak sebagai kontrol kerusakan jika sistem file pergi ke selatan.

Penafian: Jika saya mengatur ini hari ini saya akan menggunakan OpenSolaris dan ZFS. Terutama b / c menghindari masalah pengelolaan mikro dan merupakan manajer sistem / volume file yang unggul. Jadi, Anda mungkin ingin melihatnya juga.

Pengaruh 3d
sumber
4

Saya akan jauh lebih disertakan untuk membeli lebih banyak disk dan RAID 10 mereka.

Saya memiliki masalah yang sangat buruk dengan ratusan disk FATA 1TB (SATA yang terhubung dengan serat) yang kami beli beberapa waktu lalu, masing-masing £ 1rb dan saya kehilangan 5% per bulan! Pada dasarnya mereka tidak dirancang untuk siklus kerja 24x7 dan Anda mungkin memiliki masalah yang sama mengapa saya merekomendasikan R10.

RAID6 adalah langkah ke arah yang benar tetapi jika Anda memiliki kemampuan saya akan meninggalkan setidaknya satu disk sebagai cadangan-panas - jika disk mati di mana saja pada array Anda, ia akan melompat masuk dan bergaris saat menunggu Anda untuk ganti disk yang gagal. Mengenai hal itu, pastikan Anda memiliki setidaknya 2 atau 3 disk cadangan di tempat yang siap untuk diganti dan juga pastikan Anda memiliki semua pengaturan peringatan untuk memberi tahu Anda ketika ada masalah 24x7.

Adapun kinerja, baik itu disk 2GB tidak terlalu jorok untuk disk 7.2k dan SAS bisa sangat cepat jadi saya harapkan 70MBps untuk membaca berurutan yang Anda sebutkan - jelas tebusan dan menulis akan sangat rendah.

Maaf jika saya tampak negatif, saya baru saja bergelut dengan penyimpanan selama bertahun-tahun sekarang dan hanya bisa tidur dengan mudah dengan sistem disk perusahaan - Saya baru saja menarik terlalu banyak shift 48/72 jam untuk memperbaiki gigi kelas bawah.

Chopper3
sumber
2
Poin luar biasa - Saya tidak menentukan dalam pertanyaan tetapi saya telah memesan 3 hot spares, 1 per array. Sayangnya saya tidak memiliki opsi untuk memasukkan lebih banyak disk ke dalam waktu dekat ini, tetapi saya mungkin bisa membuat pelanggan setuju untuk menurunkan kapasitas pada beberapa volume.
Helvick