Saya ingin tahu, dari orang-orang yang lebih berpengalaman, apa yang akan menjadi pilihan terbaik sistem file untuk digunakan untuk server file yang memiliki lebih dari 20TB hard disk. Secara pribadi saya selalu menggunakan EXT3 (dulu) dan EXT4 (sejak tersedia) [dan sekali ReiserFS 3 meskipun itu menyebabkan banyak data korupsi] pada komputer pribadi saya dan pada disk "server kecil" BOOT dan ROOT disk.
Namun karena alat EXT4 (meskipun bukan EXT4 sendiri) terbatas pada partisi 16TB, ini mungkin bukan taruhan terbaik saya. Distribusi akan menjadi Debian 6.0 (Squeeze) dan / atau Gentoo (versi terbaru), jadi kernel harus cukup baru (setidaknya di Debian dengan backports), yang berarti kernel linux> = 2.6.32.
File server akan digunakan untuk tiga tujuan utamanya (dan partisi yang terpisah juga, karena tujuannya adalah untuk menjaga data "aman" dan tidak terlalu peduli dengan overhead). Semua disk akan dienkripsi menggunakan LUKS :
- Media, unduhan dan repositori debian lokal [Saya memiliki setidaknya 6 mesin yang menjalankan Debian]> 20TB (mungkin pemisahan lebih lanjut antara repositori Media, Unduhan dan Debian)
- Data (Dokumen, Foto, ...) ~ 4TB AMAN (artinya raid1 atau raid6 + disk cadangan)
- Cadangan> = 20 TB untuk pencadangan komputer lain di gigabit lan saya (dapatkah Anda menyarankan perangkat lunak yang mencadangkan seluruh OS bahkan jika itu windows, BackupPC mengatakan itu, alternatif lain?)
Kecepatan cepat tidak benar-benar diperlukan (akses bersamaan: maksimum 2 atau 3 file besar, katakan video), bahkan jika itu "hanya" 200MB / s dibaca dari 10 HDD Raid6 saya bisa hidup dengan itu.
Singkatnya saya mencari sistem file yang andal, scalable (yaitu mudah diperluas) yang mendukung lebih dari 20TB / partisi. Semakin aman dan dapat diandalkan FS, semakin baik. Perangkat keras yang digunakan setidaknya merupakan quad core (amd x4 630 atau intel i5-2500k) dan banyak RAM (> 8GB, mungkin> 16GB) sehingga persyaratan perangkat keras harus dipenuhi.
PC / Server saya akan terhubung ke UPS (Catu Daya Tidak Terputus) seandainya listrik padam. Mungkin juga media dan cadangan pada mesin yang terpisah (yaitu dua server).
sumber
Jawaban:
Banyak orang menyarankan ZFS. Tetapi ZFS tidak tersedia secara native di Linux kecuali melalui sekring. Saya tidak akan merekomendasikan ini untuk situasi Anda di mana kinerja cenderung penting.
Sayangnya, ZFS tidak akan pernah tersedia sebagai modul kernel asli kecuali masalah lisensi diselesaikan.
XFS bagus, tetapi beberapa orang telah melaporkan masalah korupsi dan saya tidak bisa mengomentari itu. Saya telah bermain dengan partisi XFS kecil dan tidak memiliki masalah ini tetapi tidak dalam produksi.
ZFS memiliki terlalu banyak kelebihan & fitur berguna yang tidak dapat diabaikan begitu saja. Singkatnya mereka (lihat ZFS Wiki untuk deskripsi lengkap tentang apa artinya):
Jadi bagaimana kita mengatasinya? Alternatif yang saya sarankan yang mungkin sesuai dengan situasi Anda adalah dengan mempertimbangkan nexenta . Ini adalah kernel Open Solaris dengan alat GNU userland berjalan di atas. Memiliki kernel Open Solaris berarti menyediakan ZFS secara asli.
sumber
Anda harus mencoba XFS, cocok dengan kebutuhan Anda:
sumber
Pilihan termudah Anda adalah menggunakan XFS. Banyak pengalaman buruk di sekitar XFS didasarkan pada versi lama dan masalah perangkat keras desktop yang saya pikir tidak benar-benar relevan untuk penyebaran baru ke perangkat keras server kualitas standar. Saya menulis posting blog tentang subjek ini yang dapat membantu Anda menyelesaikan situasi saat ini. Ada beberapa instalasi database XFS yang sibuk dengan ratusan pengguna dan terabyte data yang saya bantu kelola. Semuanya ada di kernel Debian Lenny (2.6.26) atau lebih baru dan saya belum pernah mendengar sedikit pun masalah dengan mereka selama bertahun-tahun. Saya tidak akan menggunakan XFS dengan kernel yang lebih awal dari itu. Saya telah mendengar beberapa laporan langsung dari orang-orang yang melihat perilaku XFS aneh masih ketika sistem kehabisan memori atau ruang disk; Saya belum melihat itu sendiri.
Satu-satunya pilihan masuk akal lainnya adalah menggunakan ext4 dengan beberapa peretasan untuk mendukung sistem file yang lebih besar. Saya tidak menyangka akan memiliki tingkat keandalan yang sangat berbeda. Saya harus memulihkan data dari beberapa sistem ext4 yang rusak yang mengalami bug kernel, sejauh ini semuanya sudah diperbaiki di hulu tetapi tidak di kernel distributor saat itu. ext4 memiliki masalah metadata sendiri seperti kehilangan data alokasi yang tertunda , hal-hal yang lebih kecil kemungkinannya terjadi pada ext3. Saya akan memperkirakan kemungkinan Anda mengenai bug ext4 akan lebih tinggi dari biasanya jika Anda memaksanya melebihi batas ukuran normal, hanya karena tampaknya Anda akan lebih mungkin mengenai jalur kode baru yang kurang teruji dengan baik di beberapa titik. .
Gagasan alternatif adalah menggunakan ext3 yang lebih aman dan membosankan, menerima batas 16TB, dan mempartisi segalanya dengan lebih baik sehingga tidak ada sistem file tunggal yang sebesar itu.
Satu ujung yang terkait dengan masalah jurnal. Anda tidak berbicara tentang bagaimana semua drive ini akan terhubung. Pastikan Anda memahami implikasi dari setiap cache tulis yang ada dalam rantai penyimpanan Anda di sini. Nonaktifkan atau pastikan sistem file mengeluarkan cache. Saya telah menyembunyikan beberapa sumber tentang hal itu di Tulisan Andal jika itu belum Anda periksa.
Drive menyedot. Array RAID menyedot. Sistem file payah. Banyak kegagalan terjadi. Saya senang melihat Anda sudah memikirkan cadangan; beralih dari keandalan yang baik ke keandalan yang tinggi membutuhkan lebih dari sekadar RAID dan beberapa drive cadangan. Redundansi membutuhkan biaya pada setiap level, dan uang untuk kompleksitas perangkat keras vs. lunak yang sulit dinavigasi. Dan perhatikan ekspektasi kinerja Anda. Sementara array RAID seperti yang Anda pertimbangkan akan dengan mudah melakukan ratusan MB / s, yang diperlukan hanyalah dua pembaca bersamaan yang mencari disk secara terus-menerus untuk menjatuhkannya menjadi hanya beberapa MB / s sebagai gantinya. Saya dapat dengan mudah menghancurkan array RAID10 24 disk sehingga hanya memberikan <5MB / s terhadap beban kerja patokan . Satu hal yang membantu di sana adalah memastikan Anda mengubah readahead ke atas jika beberapa pembaca streaming dimungkinkan.
sumber
Menggunakan ZFS menggunakan FreeBSD dapat terjadi di sini menggunakan gbde untuk enkripsi. ZFS sendiri akan menjadi penyedia perangkat lunak RAID, melalui RAIDZ . Kompleksitas manajemen penyimpanan membangun zpool tidak jauh berbeda dari apa yang akan dilakukan Linux dengan mdadm, dan dalam beberapa kasus sebenarnya akan lebih mudah. Instalasi ZFS pertama saya (pada Solaris 10 sekitar 3 tahun yang lalu) memiliki sistem file 17TB lebih dari 48 drive. Saya selamat dari beberapa kegagalan di sana tanpa masalah, mempelajari manajemen ZFS ketika saya pergi.
Keuntungan utama adalah bahwa checksumming ZFS menyediakan deteksi kesalahan yang lebih baik daripada Linux, yang merupakan pertahanan terhadap perangkat keras yang buruk yang patut dipertimbangkan. Kerugian utama di sekitar FreeBSD menjadi kurang populer. Anda belum tahu bagaimana cara mengaturnya, dukungan perangkat keras sedikit lebih lemah daripada Linux, dan karena ini adalah platform yang kurang populer, tidak banyak orang yang meminta bantuan jika Anda mengalami masalah.
Array penyimpanan banyak terabyte benar-benar menyoroti apa yang baik pada ZFS. Ada baiknya mempertimbangkan dengan serius jika Anda mau terjun ke sesuatu yang baru. Jika Anda ingin menjelajahi paranoia cadangan yang sebenarnya, buat server cadangan Linux dan FreeBSD, untuk mengurangi kemungkinan bug OS sebagai satu-satunya penyebab kegagalan.
sumber
Menurut halaman perbandingan sistem file wikipedia , ada banyak sistem file terkenal yang sesuai dengan kebutuhan Anda seperti JFS, XFS, UDF, ZFS, GPFS dan Btrfs. Cukup klik ukuran file maksimum untuk mengurutkan dan memilih yang paling tepat
sumber