Debian: Drive RAID yang menunjukkan 62% disk sudah digunakan meskipun banyak yang tersisa

0

Beberapa waktu yang lalu saya telah mengkonfigurasi RAID0 pada server Debian X64 kami dan sejauh ini, berfungsi dengan baik, tidak ada masalah. Suatu hari, saya baru memeriksa df -h, dan itu menunjukkan kepada saya bahwa 62% dari ruang disk sudah digunakan.

RAID dikonfigurasi dengan dua drive 2TB, dan saat ini hanya 20GB yang digunakan, tetapi ketika saya melihat output, katanya, ukurannya 34G. Apakah ada yang salah dengan pengaturan saya?

output dari df -H:

df -H
Filesystem                                              Size  Used Avail Use% Mounted on
rootfs                                                  456G  7,3G  425G   2% /
udev                                                     11M     0   11M   0% /dev
tmpfs                                                   3,4G  300k  3,4G   1% /run
/dev/disk/by-uuid/ae73679c-c3cd-4a60-bcbb-5b6ddce867f7  456G  7,3G  425G   2% /
tmpfs                                                   5,3M     0  5,3M   0% /run/lock
tmpfs                                                    11G  4,1k   11G   1% /run/shm
/dev/sdc2                                               529M   41M  461M   9% /boot
// This last one   
 /dev/md1                                                 34G   20G   13G  62% /media/attachment

output dari mdadm - detail / dev / md1:

/dev/md1:
        Version : 1.2
  Creation Time : Wed Apr 29 11:12:21 2015
     Raid Level : raid0
     Array Size : 33553408 (32.00 GiB 34.36 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Wed Apr 29 11:12:21 2015
          State : clean 
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

     Chunk Size : 512K

           Name : legion03:1  (local to host legion03)
           UUID : 68e853a6:7af46176:d9c147c7:6ff87bb0
         Events : 0

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1

Output dari

fdisk -l | grep Disk

fdisk -l | grep Disk
Disk /dev/md1 doesn't contain a valid partition table
Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
Disk identifier: 0x00089ca4
Disk /dev/sdc: 480.1 GB, 480103981056 bytes
Disk identifier: 0x00047ef7
Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
Disk identifier: 0x000275d2
Disk /dev/md1: 34.4 GB, 34358689792 bytes
Disk identifier: 0x00000000

Apakah ada yang salah dengan pengaturan RAID0 saya? Bantuan apa pun akan menyenangkan. Terima kasih.

Memperbarui

Output dari fdisk -l:

fdisk -l 

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00089ca4

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1            2048  3907029167  1953513560   fd  Linux raid autodetect

Disk /dev/sdc: 480.1 GB, 480103981056 bytes
255 heads, 63 sectors/track, 58369 cylinders, total 937703088 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00047ef7

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1            2048    33556480    16777216+  82  Linux swap / Solaris
/dev/sdc2        33558528    34607104      524288+  83  Linux
/dev/sdc3        34609152   937701040   451545944+  83  Linux

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000275d2

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1            2048  3907029167  1953513560   fd  Linux raid autodetect

Disk /dev/md1: 34.4 GB, 34358689792 bytes
2 heads, 4 sectors/track, 8388352 cylinders, total 67106816 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 524288 bytes / 1048576 bytes
Disk identifier: 0x00000000

Disk /dev/md1 doesn't contain a valid partition table
We are Borg
sumber
Apakah ada sesuatu di Recycle Bin atau apakah OS menyimpan versi file sebelumnya?
Ganesh R.
Apa output dari fdisk -l?
Michael Hampton
Proses yang tepat untuk meminta migrasi adalah menandainya. Yang mengatakan, ini sepenuhnya pada topik di sini, dan itu tidak terasa seperti pertanyaan SF. Sangat mungkin itu akan bangkit kembali ke sini.
Journeyman Geek
@MichaelHampton: Saya telah menambahkan output. Saya pikir karena saya harus membuat pengaturan Raid baru dengan dua drive 2TB, saya ingin membuatnya Raid1, bukan Raid0.
We are Borg
@JourneymanGeek: Terima kasih. Saya akan membiarkan pertanyaannya tetap.
We are Borg

Jawaban:

3

Anda /dev/md1 tampaknya merupakan kombinasi dari dua partisi, masing-masing berukuran 16 GiB (atau ukuran yang mungkin berbeda yang menambahkan hingga 32 GiB). Output dari fdisk -l menambahkan sesudahnya bertentangan dengan itu. Tanpa sejarah lengkap kita hanya bisa berspekulasi apa yang menyebabkan kondisi saat ini /dev/md1, tetapi satu kemungkinan adalah bahwa tabel partisi berubah setelah perangkat RAID dibuat (saya belum menguji apakah urutan peristiwa dapat menyebabkan kondisi ini).

Untuk melaporkan hanya tabel partisi pada kedua disk tersebut, gunakan perintah seperti ini:

fdisk -l /dev/sd[ab]

Jika Anda ingin menyimpan 20G data di partisi itu, Anda harus menyalinnya di tempat lain sebelum membuat ulang /dev/md1.

Tabel partisi ini aktif /dev/sda dan /dev/sdb sesuai untuk partisi RAID pada disk tersebut. Saya mengedit komentar saya sebelumnya tentang bagaimana (dan apakah) mempartisi disk tersebut.

Untuk membongkar dan membuat ulang /dev/md1 Anda dapat menggunakan urutan perintah ini:

mdadm --stop /dev/md1
mdadm --create /dev/md1 --level=1 --raid-devices=2 /dev/sd[ab]1

Saya percaya bahwa perintah pertama tidak merusak, tetapi Anda ingin memiliki data yang ada di /dev/md1 dicadangkan sebelum Anda menjalankan yang kedua (dan, sungguh, sebelum Anda menjalankan yang pertama). aku percaya mdadm --assemble akan memungkinkan Anda untuk membalikkan efek perintah pertama itu, tetapi itu tidak perlu setelah data Anda dicadangkan.

Saya belum menguji urutan perintah ini (tidak baru-baru ini saja) tetapi konsisten dengan ingatan saya, dan pembacaan dokumentasi saya. Hati-hati mengetik nama perangkat dengan benar. Akan menarik untuk mengetahui apakah mdadm --create menggunakan ukuran partisi penuh dari dua komponen disk saat membuat cermin RAID. Komentar Anda menunjukkan Anda ingin mirror RAID; nilai parameter untuk --level akan berbeda jika Anda menginginkan sesuatu yang lain.

Anda mungkin juga ingin memeriksa konten /etc/mdadm.conf atau /etc/mdadm/mdadm.conf untuk memastikan mereka tidak menentukan nilai default yang tidak diinginkan.

Eirik Fuller
sumber
Jadi, pengaturan RAID yang saya miliki saat ini salah, bukan? Seperti yang mungkin Anda perhatikan bahwa saya memiliki Raid0, tetapi ingin mengubahnya menjadi Raid1. Saya memiliki ruang pada SSD 512Gb untuk mengambil cadangan drive 34 GB dan kemudian memulai operasi. Karena saya akan membuat pengaturan Raid baru dengan memformat dua drive 2TB, dapatkah Anda memberi tahu saya cara membuatnya ke Raid1 dengan menambahkan kedua drive ke Raid itu. Terima kasih.
We are Borg
Penjelasan saya tidak konsisten dengan fdisk -l output ditambahkan sesudahnya. Tidak jelas bagaimana caranya /dev/md1 telah dibuat, tetapi begitu data dicadangkan, harus langsung dibuat ulang. Saya akan mengedit jawaban untuk menjelaskan itu.
Eirik Fuller
Ya, saya harus menghapus kedua drive 2TB setelah mengambil cadangan, dan membuat ulang RAID-array dengan perintah yang Anda sebutkan. Dan akhirnya ekspor konfigurasi RAID saat ini untuk over-ride yang lama. Terima kasih. :-)
We are Borg