Isu :::
Saya menginstal Redhat 5.10 x64 pada server yang memiliki hdd rusak. Saya menghapus hdd rusak lama dan menginstal yang baru dengan kapasitas 500GB dan setelah instalasi saya perlu menyalin beberapa data dari hdd lama ke HDD baru di bawah / u001. Jadi saya menghubungkan hdd lama (320 gb) ke server. Itu muncul fdisk -l
tetapi ketika saya mencoba untuk me-mount menggunakan
sudo mount / dev / sdb2 atau / dev / sdb5 katanya
Catatan: HDD lama juga memiliki OS lama yang diinstal di dalamnya seperti yang Anda lihat di fdisk -l
/ dev / sda = HDD Baru
/ dev / sdb = HDD Lama
Perangkat sudah terpasang atau sumber daya sibuk
Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 * 1 25 200781 83 Linux
/dev/sda2 26 10346 82903432+ 8e Linux LVM
/dev/sda3 10347 11390 8385930 82 Linux swap / Solaris
/dev/sda4 11391 60801 396893857+ 5 Extended
/dev/sda5 11391 60801 396893826 8e Linux LVM
Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 * 1 13 104391 83 Linux
/dev/sdb2 14 10242 82164442+ 8e Linux LVM
/dev/sdb3 10243 11286 8385930 82 Linux swap / Solaris
/dev/sdb4 11287 38888 221713065 5 Extended
/dev/sdb5 11287 38888 221713033+ 8e Linux LVM
[admin@testsrv ~]$ sudo mount /dev/sdb2 /media/test/
mount: /dev/sdb2 already mounted or /media/test/ busy
[admin@testsrv ~]$ sudo mount /dev/sdb5 /media/test/
mount: /dev/sdb5 already mounted or /media/test/ busy
Tingkat Hasil :::
/dev/mapper/VolGroup00_root-LogVol00 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/mapper/VolGroup00_u001-LogVol00 on /u001/app/oracle type ext3 (rw)
/dev/sda1 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)
PVDISPLAY :: output
sudo pvdisplay
--- Physical volume ---
PV Name /dev/sda5
VG Name VolGroup00_u001
PV Size 378.51 GB / not usable 7.63 MB
Allocatable yes (but full)
PE Size (KByte) 32768
Total PE 12112
Free PE 0
Allocated PE 12112
PV UUID E2ibW6-uaDJ-7FMA-OZS0-sApR-DNwK-0jO3Ob
--- Physical volume ---
PV Name /dev/sda2
VG Name VolGroup00_root
PV Size 79.06 GB / not usable 392.50 KB
Allocatable yes
PE Size (KByte) 32768
Total PE 2530
Free PE 1
Allocated PE 2529
PV UUID YSGQwx-yIsO-CR0C-4G6r-GI9O-nUya-gE22yk
LVMDISkSCAN :: Output
sudo lvmdiskscan
/dev/ramdisk [ 16.00 MB]
/dev/root [ 79.03 GB]
/dev/ram [ 16.00 MB]
/dev/sda1 [ 196.08 MB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45 [ 297.90 GB]
/dev/ram2 [ 16.00 MB]
/dev/sda2 [ 79.06 GB] LVM physical volume
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p1 [ 101.94 MB]
/dev/ram3 [ 16.00 MB]
/dev/sda3 [ 8.00 GB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p2 [ 78.36 GB] LVM physical volume
/dev/ram4 [ 16.00 MB]
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p3 [ 8.00 GB]
/dev/ram5 [ 16.00 MB]
/dev/sda5 [ 378.51 GB] LVM physical volume
/dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p5 [ 211.44 GB] LVM physical volume
/dev/ram6 [ 16.00 MB]
/dev/VolGroup00_ora/LogVol00 [ 211.44 GB]
/dev/ram7 [ 16.00 MB]
/dev/VolGroup00_u001/LogVol00 [ 378.50 GB]
/dev/ram8 [ 16.00 MB]
/dev/ram9 [ 16.00 MB]
/dev/ram10 [ 16.00 MB]
/dev/ram11 [ 16.00 MB]
/dev/ram12 [ 16.00 MB]
/dev/ram13 [ 16.00 MB]
/dev/ram14 [ 16.00 MB]
/dev/ram15 [ 16.00 MB]
/dev/sdb1 [ 101.94 MB]
/dev/sdb2 [ 78.36 GB]
/dev/sdb3 [ 8.00 GB]
/dev/sdb5 [ 211.44 GB]
3 disks
25 partitions
0 LVM physical volume whole disks
4 LVM physical volumes
filesystems
rhel
mount
OmiPenguin
sumber
sumber
mount
?findmnt
ataumount
?lsof +D /media/test/
akan sangat membantulvdisplay
untuk melihat apa perangkat LVM terdeteksi. Anda harus dapat mengaksesnya/dev/sdbX
.Jawaban:
Bahkan di 5.x, RHEL menggunakan LVM secara default. Anda harus mengambil beberapa langkah terlebih dahulu sebelum dapat memasang volume LVM.
Jika Anda menggunakan nama VG yang sama pada disk baru seperti pada disk lama, Anda memiliki sedikit masalah: Anda memiliki dua VG dengan nama yang sama. Untuk mengidentifikasi secara unik VG yang ingin Anda manipulasi (yaitu yang aktif
/dev/sdb
), Anda akan memerlukan UUID VG. Lari:untuk mendaftar semua PV LVM yang terdeteksi termasuk VID UUIDs mereka. Anda juga akan melihat nama VG dari setiap partisi, sehingga Anda dapat melihat ada atau tidaknya konflik nama.
LVM pada umumnya cukup pintar untuk tidak mengacaukan konfigurasi VG aktif Anda kecuali Anda benar-benar keluar dari jalan untuk mengacaukannya. Jadi, jika
pvs
perintah yang disebutkan di atas tidak menampilkan apa-apa/dev/sdb
, jalankanvgscan
kemudian coba lagi.Setelah Anda mengetahui UUID VG, Anda dapat menggunakan perintah vgrename untuk mengganti nama VG yang bertentangan. Jika tidak ada konflik nama, Anda dapat langsung beralih ke
vgchange
.(Untuk memasang LV di dalam VG, Anda harus mengaktifkan VG, dan dan VG tidak akan aktif jika namanya bertentangan dengan VG yang sudah ada.)
Perintah untuk mengganti nama VG terlihat seperti ini:
di mana
Zvlifi-...
sup alfabet adalah UUID VG, dan parameter lainnya hanyalah nama baru untuk VG ini.Setelah konflik nama VG diselesaikan (atau jika tidak ada konflik di tempat pertama), Anda harus mengaktifkan VG (s) aktif
/dev/sdb
. Anda cukup mengaktifkan semua VGs LVM non-aktif yang dilihat dengan perintah ini:Saat mengaktifkan VG, nama perangkat (tautan) dari setiap LV di dalamnya akan muncul sebagai
/dev/mapper/<VG name>-<LV name>
. (Juga/dev/<VG name>/<LV name>
untuk alasan kompatibilitas sebelumnya.)Pada titik ini, Anda dapat memasang mereka seperti biasa.
sumber
vgchange -ay
dan kemudian dapat menjalankan:mount -t ext4 /dev/mapper/my--server--vg-root /tmp/myserver
Jika misalnya
cetakan
periksa apakah ada proses menggunakan perangkat itu (/ dev / sda1).
Ini sering merupakan proses fsck yang berjalan secara otomatis pada startup sistem. Anda dapat memeriksanya dengan cepat misalnya dengan
sumber
Saya telah menghadapi situasi seperti ini. Pengalaman dan Solusi diceritakan di blog saya .
Cuplikan ada di sini:
Kesalahan: mount: / dev / mapper / STORBCK-backup sudah terpasang atau / STORBCK sibuk?
Diagnostik: Ketika kita mencoba untuk me-mount / STORBCK FS kita mendapatkan Kesalahan yang disebutkan di atas.
Resolusi: 1. Ketika FS Lainnya menjadi read-only, saya sudah menghentikan / memulai layanan iscsi. itu berhasil masuk ke Perangkat. /etc/init.d/iscsi berhenti /etc/init.d/iscsi mulai https://manastri.blogspot.in/2016/11/mount-devmapperstorbck-backup-already.html
sumber