Saya baru saja pindah rumah yang melibatkan pembongkaran server saya dan menghubungkan kembali. Sejak itu, salah satu array RAID5 MDADM saya tampak tidak aktif:
root@mserver:/tmp# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md1 : active raid5 sdc1[1] sdh1[2] sdg1[0]
3907023872 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]
md0 : inactive sdd1[0](S) sdf1[3](S) sde1[2](S) sdb1[1](S)
3907039744 blocks
unused devices: <none>
Sepertinya saya menemukan semua disk tetapi untuk beberapa alasan tidak ingin menggunakannya.
Jadi apa arti label (S) dan bagaimana saya bisa memberi tahu MDADM untuk mulai menggunakan array lagi?
[Sunting] Saya baru saja mencoba menghentikan dan merakit array dengan -v
:
root@mserver:~# mdadm --stop /dev/md0
mdadm: stopped /dev/md0
root@mserver:~# mdadm --assemble --scan -v
mdadm: /dev/sde1 is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sdf1 is identified as a member of /dev/md0, slot 3.
mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sdb1 is identified as a member of /dev/md0, slot 1.
mdadm: added /dev/sdd1 to /dev/md0 as 0 (possibly out of date)
mdadm: added /dev/sdb1 to /dev/md0 as 1 (possibly out of date)
mdadm: added /dev/sdf1 to /dev/md0 as 3 (possibly out of date)
mdadm: added /dev/sde1 to /dev/md0 as 2
mdadm: /dev/md0 assembled from 1 drive - not enough to start the array.
..dan memasuki kucing /proc/mdstat
terlihat tidak berbeda.
[Sunting2] Tidak yakin apakah itu membantu tetapi ini adalah hasil dari memeriksa setiap disk:
root @ mserver: ~ # mdadm --examine / dev / sdb1
/dev/sdb1:
Magic : a92b4efc
Version : 0.90.00
UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
Creation Time : Sun Feb 1 20:53:39 2009
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0
Update Time : Sat Apr 20 13:22:27 2013
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 6c8f71a3 - correct
Events : 955190
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 1 8 17 1 active sync /dev/sdb1
0 0 8 113 0 active sync /dev/sdh1
1 1 8 17 1 active sync /dev/sdb1
2 2 8 97 2 active sync /dev/sdg1
3 3 8 33 3 active sync /dev/sdc1
root @ mserver: ~ # mdadm --examine / dev / sdd1
/dev/sdd1:
Magic : a92b4efc
Version : 0.90.00
UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
Creation Time : Sun Feb 1 20:53:39 2009
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
Raid Devices : 4
Total Devices : 2
Preferred Minor : 0
Update Time : Sat Apr 20 18:37:23 2013
State : active
Active Devices : 2
Working Devices : 2
Failed Devices : 2
Spare Devices : 0
Checksum : 6c812869 - correct
Events : 955205
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 0 8 113 0 active sync /dev/sdh1
0 0 8 113 0 active sync /dev/sdh1
1 1 0 0 1 faulty removed
2 2 8 97 2 active sync /dev/sdg1
3 3 0 0 3 faulty removed
root @ mserver: ~ # mdadm --examine / dev / sde1
/dev/sde1:
Magic : a92b4efc
Version : 0.90.00
UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
Creation Time : Sun Feb 1 20:53:39 2009
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
Raid Devices : 4
Total Devices : 2
Preferred Minor : 0
Update Time : Sun Apr 21 14:00:43 2013
State : clean
Active Devices : 1
Working Devices : 1
Failed Devices : 2
Spare Devices : 0
Checksum : 6c90cc70 - correct
Events : 955219
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 2 8 97 2 active sync /dev/sdg1
0 0 0 0 0 removed
1 1 0 0 1 faulty removed
2 2 8 97 2 active sync /dev/sdg1
3 3 0 0 3 faulty removed
root @ mserver: ~ # mdadm --examine / dev / sdf1
/dev/sdf1:
Magic : a92b4efc
Version : 0.90.00
UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
Creation Time : Sun Feb 1 20:53:39 2009
Raid Level : raid5
Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0
Update Time : Sat Apr 20 13:22:27 2013
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 6c8f71b7 - correct
Events : 955190
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 3 8 33 3 active sync /dev/sdc1
0 0 8 113 0 active sync /dev/sdh1
1 1 8 17 1 active sync /dev/sdb1
2 2 8 97 2 active sync /dev/sdg1
3 3 8 33 3 active sync /dev/sdc1
Saya punya beberapa catatan yang menyarankan drive awalnya dirakit sebagai berikut:
md0 : active raid5 sdb1[1] sdc1[3] sdh1[0] sdg1[2]
2930279808 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
[Edit3]
Melihat melalui log terlihat seperti berikut ini terjadi (berdasarkan Update Time
pada --examine
hasil):
- sdb dan sdf tersingkir beberapa saat setelah 13:22 pada tanggal 20
- sdd tersingkir beberapa waktu setelah 18:37 pada tanggal 20
- server dimatikan beberapa saat setelah 14:00 pada tanggal 1
Mengingat bahwa dua disk turun (tampaknya) secara bersamaan saya pikir itu seharusnya cukup aman untuk mengasumsikan array tidak akan ditulis setelah titik (?) Dan sehingga relatif aman untuk memaksa itu untuk menginstal ulang di dalam pesanan yang benar? Apa perintah teraman untuk melakukannya dan apakah ada cara untuk melakukannya tanpa menulis perubahan?
sumber
-v
untuk melihat apa yang sedang terjadi) tapi semua disk yang harus ditambahkan mendapatkan tanggapan sepanjang baris berikut:mdadm: /dev/sdb1 is busy - skipping
.-R
atau-f
. Jika itu gagal juga, buat ulang array menggunakanmdadm create /dev/md0 --assume-clean <original create options> /dev/sd[dbfe]1
. Diperingatkan: Semua opsi ini dapat merusak data Anda.mdadm --assemble --scan --force
bekerja. Array kembali dan berjalan dan saya memiliki akses ke data saya :)Pertanyaan ini agak lama, tetapi jawabannya mungkin membantu seseorang menghadapi situasi serupa. Melihat jumlah kejadian dari mdadm - output yang Anda berikan, mereka tampaknya cukup dekat (955190 - untuk sdb1 dan sdf1, 955219 untuk sde1 dan untuk sdd1 Anda punya 955205). Jika mereka di bawah 40-50, ini OK, dan dalam hal itu tindakan yang disarankan adalah merakit array Anda secara manual, memaksa mdadm untuk menerima drive meskipun ada perbedaan hitungan acara:
Hentikan array:
Kemudian cobalah memasang kembali array secara manual:
Periksa status array, untuk memeriksa apakah daftar drive / struktur OK (bagian bawah output perintah akan menunjukkan drive mana pada status apa dan di posisi mana dalam array):
Jika strukturnya OK, periksa kemajuan pembangunan kembali:
sumber
Anda dapat mengaktifkan Raid md0 dengan perintah di bawah ini
dan perintah ini untuk memperbarui file mdadm.conf
sumber