Perangkat sudah terpasang atau sumber daya sibuk

9

Isu :::

Saya menginstal Redhat 5.10 x64 pada server yang memiliki hdd rusak. Saya menghapus hdd rusak lama dan menginstal yang baru dengan kapasitas 500GB dan setelah instalasi saya perlu menyalin beberapa data dari hdd lama ke HDD baru di bawah / u001. Jadi saya menghubungkan hdd lama (320 gb) ke server. Itu muncul fdisk -ltetapi ketika saya mencoba untuk me-mount menggunakan

sudo mount / dev / sdb2 atau / dev / sdb5 katanya

Catatan: HDD lama juga memiliki OS lama yang diinstal di dalamnya seperti yang Anda lihat di fdisk -l
/ dev / sda = HDD Baru
/ dev / sdb = HDD Lama

Perangkat sudah terpasang atau sumber daya sibuk

Disk /dev/sda: 500.1 GB, 500107862016 bytes
255 heads, 63 sectors/track, 60801 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *           1          25      200781   83  Linux
/dev/sda2              26       10346    82903432+  8e  Linux LVM
/dev/sda3           10347       11390     8385930   82  Linux swap / Solaris
/dev/sda4           11391       60801   396893857+   5  Extended
/dev/sda5           11391       60801   396893826   8e  Linux LVM

Disk /dev/sdb: 320.0 GB, 320072933376 bytes
255 heads, 63 sectors/track, 38913 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1          13      104391   83  Linux
/dev/sdb2              14       10242    82164442+  8e  Linux LVM
/dev/sdb3           10243       11286     8385930   82  Linux swap / Solaris
/dev/sdb4           11287       38888   221713065    5  Extended
/dev/sdb5           11287       38888   221713033+  8e  Linux LVM
[admin@testsrv ~]$ sudo mount /dev/sdb2 /media/test/
mount: /dev/sdb2 already mounted or /media/test/ busy
[admin@testsrv ~]$ sudo mount /dev/sdb5 /media/test/
mount: /dev/sdb5 already mounted or /media/test/ busy

Tingkat Hasil :::

/dev/mapper/VolGroup00_root-LogVol00 on / type ext3 (rw)
proc on /proc type proc (rw)
sysfs on /sys type sysfs (rw)
devpts on /dev/pts type devpts (rw,gid=5,mode=620)
/dev/mapper/VolGroup00_u001-LogVol00 on /u001/app/oracle type ext3 (rw)
/dev/sda1 on /boot type ext3 (rw)
tmpfs on /dev/shm type tmpfs (rw)
none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)
sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)

PVDISPLAY :: output

    sudo pvdisplay
      --- Physical volume ---
      PV Name               /dev/sda5
      VG Name               VolGroup00_u001
      PV Size               378.51 GB / not usable 7.63 MB
      Allocatable           yes (but full)
      PE Size (KByte)       32768
      Total PE              12112
      Free PE               0
      Allocated PE          12112
      PV UUID               E2ibW6-uaDJ-7FMA-OZS0-sApR-DNwK-0jO3Ob

      --- Physical volume ---
      PV Name               /dev/sda2
      VG Name               VolGroup00_root
      PV Size               79.06 GB / not usable 392.50 KB
      Allocatable           yes
      PE Size (KByte)       32768
      Total PE              2530
      Free PE               1
      Allocated PE          2529
      PV UUID               YSGQwx-yIsO-CR0C-4G6r-GI9O-nUya-gE22yk

LVMDISkSCAN :: Output

sudo lvmdiskscan
  /dev/ramdisk                                                        [       16.00 MB]
  /dev/root                                                           [       79.03 GB]
  /dev/ram                                                            [       16.00 MB]
  /dev/sda1                                                           [      196.08 MB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45   [      297.90 GB]
  /dev/ram2                                                           [       16.00 MB]
  /dev/sda2                                                           [       79.06 GB] LVM physical volume
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p1 [      101.94 MB]
  /dev/ram3                                                           [       16.00 MB]
  /dev/sda3                                                           [        8.00 GB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p2 [       78.36 GB] LVM physical volume
  /dev/ram4                                                           [       16.00 MB]
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p3 [        8.00 GB]
  /dev/ram5                                                           [       16.00 MB]
  /dev/sda5                                                           [      378.51 GB] LVM physical volume
  /dev/mapper/ddf1_4035305a8680822620202020202020203532aa703a354a45p5 [      211.44 GB] LVM physical volume
  /dev/ram6                                                           [       16.00 MB]
  /dev/VolGroup00_ora/LogVol00                                        [      211.44 GB]
  /dev/ram7                                                           [       16.00 MB]
  /dev/VolGroup00_u001/LogVol00                                       [      378.50 GB]
  /dev/ram8                                                           [       16.00 MB]
  /dev/ram9                                                           [       16.00 MB]
  /dev/ram10                                                          [       16.00 MB]
  /dev/ram11                                                          [       16.00 MB]
  /dev/ram12                                                          [       16.00 MB]
  /dev/ram13                                                          [       16.00 MB]
  /dev/ram14                                                          [       16.00 MB]
  /dev/ram15                                                          [       16.00 MB]
  /dev/sdb1                                                           [      101.94 MB]
  /dev/sdb2                                                           [       78.36 GB]
  /dev/sdb3                                                           [        8.00 GB]
  /dev/sdb5                                                           [      211.44 GB]
  3 disks
  25 partitions
  0 LVM physical volume whole disks
  4 LVM physical volumes
OmiPenguin
sumber
Apa output dari mount?
csny
Bisakah Anda menunjukkan output findmntatau mount?
Spack
Juga, output dari lsof +D /media/test/akan sangat membantu
csny
1
Masalahnya adalah bahwa disk lama tidak memiliki sistem file biasa pada partisi tetapi memiliki lapisan LVM antara perangkat dan sistem file, seperti yang ditunjukkan oleh jenis partisi. Pastikan sistem baru Anda memiliki alat LVM diinstal, reboot dengan disk lama terpasang, dan periksa lvdisplayuntuk melihat apa perangkat LVM terdeteksi. Anda harus dapat mengaksesnya /dev/sdbX.
Wurtel
2
Untuk semua pembantu, maaf itu murni kesalahan saya, saya benar-benar lupa bahwa ini adalah partisi lvm. Dan perlu mount menggunakan mount / dev / mapper / VG_u001 / media / test @wurtel dapatkah Anda memberi tahu alat apa yang dapat digunakan untuk mengembalikan file dari LVMs.
OmiPenguin

Jawaban:

2

Bahkan di 5.x, RHEL menggunakan LVM secara default. Anda harus mengambil beberapa langkah terlebih dahulu sebelum dapat memasang volume LVM.

Jika Anda menggunakan nama VG yang sama pada disk baru seperti pada disk lama, Anda memiliki sedikit masalah: Anda memiliki dua VG dengan nama yang sama. Untuk mengidentifikasi secara unik VG yang ingin Anda manipulasi (yaitu yang aktif /dev/sdb), Anda akan memerlukan UUID VG. Lari:

# pvs -o +vg_uuid

untuk mendaftar semua PV LVM yang terdeteksi termasuk VID UUIDs mereka. Anda juga akan melihat nama VG dari setiap partisi, sehingga Anda dapat melihat ada atau tidaknya konflik nama.

LVM pada umumnya cukup pintar untuk tidak mengacaukan konfigurasi VG aktif Anda kecuali Anda benar-benar keluar dari jalan untuk mengacaukannya. Jadi, jika pvsperintah yang disebutkan di atas tidak menampilkan apa-apa /dev/sdb, jalankan vgscankemudian coba lagi.

Setelah Anda mengetahui UUID VG, Anda dapat menggunakan perintah vgrename untuk mengganti nama VG yang bertentangan. Jika tidak ada konflik nama, Anda dapat langsung beralih ke vgchange.

(Untuk memasang LV di dalam VG, Anda harus mengaktifkan VG, dan dan VG tidak akan aktif jika namanya bertentangan dengan VG yang sudah ada.)

Perintah untuk mengganti nama VG terlihat seperti ini:

vgrename Zvlifi-Ep3t-e0Ng-U42h-o0ye-KHu1-nl7Ns4 new_name_for_vg

di mana Zvlifi-...sup alfabet adalah UUID VG, dan parameter lainnya hanyalah nama baru untuk VG ini.

Setelah konflik nama VG diselesaikan (atau jika tidak ada konflik di tempat pertama), Anda harus mengaktifkan VG (s) aktif /dev/sdb. Anda cukup mengaktifkan semua VGs LVM non-aktif yang dilihat dengan perintah ini:

vgchange -ay

Saat mengaktifkan VG, nama perangkat (tautan) dari setiap LV di dalamnya akan muncul sebagai /dev/mapper/<VG name>-<LV name>. (Juga /dev/<VG name>/<LV name>untuk alasan kompatibilitas sebelumnya.)

Pada titik ini, Anda dapat memasang mereka seperti biasa.

telcoM
sumber
Ini berhasil untuk saya! Saya mendapatkan kesalahan yang sudah terpasang atau sibuk, jadi saya lakukan vgchange -aydan kemudian dapat menjalankan:mount -t ext4 /dev/mapper/my--server--vg-root /tmp/myserver
josephdpurcell
1

Jika misalnya

mount /dev/sda1 /mnt/tmp

cetakan

mount: /dev/sda1 is already mounted or /mnt/tmp busy

periksa apakah ada proses menggunakan perangkat itu (/ dev / sda1).

Ini sering merupakan proses fsck yang berjalan secara otomatis pada startup sistem. Anda dapat memeriksanya dengan cepat misalnya dengan

ps aux | grep sda1
Milan Laslop
sumber
Itulah akar masalah saya, terima kasih! (masih berharap bahwa disk akan dipasang dengan benar setelah pemeriksaan fsck selesai)
Franck
0

Saya telah menghadapi situasi seperti ini. Pengalaman dan Solusi diceritakan di blog saya .

Cuplikan ada di sini:

Kesalahan: mount: / dev / mapper / STORBCK-backup sudah terpasang atau / STORBCK sibuk?

Diagnostik: Ketika kita mencoba untuk me-mount / STORBCK FS kita mendapatkan Kesalahan yang disebutkan di atas.

Resolusi: 1. Ketika FS Lainnya menjadi read-only, saya sudah menghentikan / memulai layanan iscsi. itu berhasil masuk ke Perangkat. /etc/init.d/iscsi berhenti /etc/init.d/iscsi mulai https://manastri.blogspot.in/2016/11/mount-devmapperstorbck-backup-already.html

Manas Tripathy
sumber