Beberapa waktu yang lalu saya telah mengkonfigurasi RAID0 pada server Debian X64 kami dan sejauh ini, berfungsi dengan baik, tidak ada masalah. Suatu hari, saya baru memeriksa df -h
, dan itu menunjukkan kepada saya bahwa 62% dari ruang disk sudah digunakan.
RAID dikonfigurasi dengan dua drive 2TB, dan saat ini hanya 20GB yang digunakan, tetapi ketika saya melihat output, katanya, ukurannya 34G. Apakah ada yang salah dengan pengaturan saya?
output dari df -H:
df -H
Filesystem Size Used Avail Use% Mounted on
rootfs 456G 7,3G 425G 2% /
udev 11M 0 11M 0% /dev
tmpfs 3,4G 300k 3,4G 1% /run
/dev/disk/by-uuid/ae73679c-c3cd-4a60-bcbb-5b6ddce867f7 456G 7,3G 425G 2% /
tmpfs 5,3M 0 5,3M 0% /run/lock
tmpfs 11G 4,1k 11G 1% /run/shm
/dev/sdc2 529M 41M 461M 9% /boot
// This last one
/dev/md1 34G 20G 13G 62% /media/attachment
output dari mdadm - detail / dev / md1:
/dev/md1:
Version : 1.2
Creation Time : Wed Apr 29 11:12:21 2015
Raid Level : raid0
Array Size : 33553408 (32.00 GiB 34.36 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Wed Apr 29 11:12:21 2015
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Chunk Size : 512K
Name : legion03:1 (local to host legion03)
UUID : 68e853a6:7af46176:d9c147c7:6ff87bb0
Events : 0
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
Output dari
fdisk -l | grep Disk
fdisk -l | grep Disk
Disk /dev/md1 doesn't contain a valid partition table
Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
Disk identifier: 0x00089ca4
Disk /dev/sdc: 480.1 GB, 480103981056 bytes
Disk identifier: 0x00047ef7
Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
Disk identifier: 0x000275d2
Disk /dev/md1: 34.4 GB, 34358689792 bytes
Disk identifier: 0x00000000
Apakah ada yang salah dengan pengaturan RAID0 saya? Bantuan apa pun akan menyenangkan. Terima kasih.
Memperbarui
Output dari fdisk -l:
fdisk -l
Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00089ca4
Device Boot Start End Blocks Id System
/dev/sdb1 2048 3907029167 1953513560 fd Linux raid autodetect
Disk /dev/sdc: 480.1 GB, 480103981056 bytes
255 heads, 63 sectors/track, 58369 cylinders, total 937703088 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00047ef7
Device Boot Start End Blocks Id System
/dev/sdc1 2048 33556480 16777216+ 82 Linux swap / Solaris
/dev/sdc2 33558528 34607104 524288+ 83 Linux
/dev/sdc3 34609152 937701040 451545944+ 83 Linux
Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000275d2
Device Boot Start End Blocks Id System
/dev/sda1 2048 3907029167 1953513560 fd Linux raid autodetect
Disk /dev/md1: 34.4 GB, 34358689792 bytes
2 heads, 4 sectors/track, 8388352 cylinders, total 67106816 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 524288 bytes / 1048576 bytes
Disk identifier: 0x00000000
Disk /dev/md1 doesn't contain a valid partition table
linux
hard-drive
partitioning
debian
raid
We are Borg
sumber
sumber
fdisk -l
?Jawaban:
Anda
/dev/md1
tampaknya merupakan kombinasi dari dua partisi, masing-masing berukuran 16 GiB (atau ukuran yang mungkin berbeda yang menambahkan hingga 32 GiB). Output darifdisk -l
menambahkan sesudahnya bertentangan dengan itu. Tanpa sejarah lengkap kita hanya bisa berspekulasi apa yang menyebabkan kondisi saat ini/dev/md1
, tetapi satu kemungkinan adalah bahwa tabel partisi berubah setelah perangkat RAID dibuat (saya belum menguji apakah urutan peristiwa dapat menyebabkan kondisi ini).Untuk melaporkan hanya tabel partisi pada kedua disk tersebut, gunakan perintah seperti ini:
Jika Anda ingin menyimpan 20G data di partisi itu, Anda harus menyalinnya di tempat lain sebelum membuat ulang
/dev/md1
.Tabel partisi ini aktif
/dev/sda
dan/dev/sdb
sesuai untuk partisi RAID pada disk tersebut. Saya mengedit komentar saya sebelumnya tentang bagaimana (dan apakah) mempartisi disk tersebut.Untuk membongkar dan membuat ulang
/dev/md1
Anda dapat menggunakan urutan perintah ini:Saya percaya bahwa perintah pertama tidak merusak, tetapi Anda ingin memiliki data yang ada di
/dev/md1
dicadangkan sebelum Anda menjalankan yang kedua (dan, sungguh, sebelum Anda menjalankan yang pertama). aku percayamdadm --assemble
akan memungkinkan Anda untuk membalikkan efek perintah pertama itu, tetapi itu tidak perlu setelah data Anda dicadangkan.Saya belum menguji urutan perintah ini (tidak baru-baru ini saja) tetapi konsisten dengan ingatan saya, dan pembacaan dokumentasi saya. Hati-hati mengetik nama perangkat dengan benar. Akan menarik untuk mengetahui apakah
mdadm --create
menggunakan ukuran partisi penuh dari dua komponen disk saat membuat cermin RAID. Komentar Anda menunjukkan Anda ingin mirror RAID; nilai parameter untuk--level
akan berbeda jika Anda menginginkan sesuatu yang lain.Anda mungkin juga ingin memeriksa konten
/etc/mdadm.conf
atau/etc/mdadm/mdadm.conf
untuk memastikan mereka tidak menentukan nilai default yang tidak diinginkan.sumber
fdisk -l
output ditambahkan sesudahnya. Tidak jelas bagaimana caranya/dev/md1
telah dibuat, tetapi begitu data dicadangkan, harus langsung dibuat ulang. Saya akan mengedit jawaban untuk menjelaskan itu.