[RISOLTO] Aiuto accesso a partizione raid/jdob sotto lvm

Discussioni relative a Debian e Linux

[RISOLTO] Aiuto accesso a partizione raid/jdob sotto lvm

Messaggioda Chryses » 29/09/2018, 13:53

Buongiorno a tutti, non sono un esperto di linux, lo mastico (poco) e qualcosa so fare, ma a questo punto devo chiedere a chi sicuramente ne sa più di me, così magari imparo anche qualcosa! Fortunatamente negli anni ho sempre "risolto" il tutto con qualche buona ricerca e tanta tanta pazienza! Ma questa volta non ce la posso fare da solo.

Vi espongo il problema, sarò prolisso ma spero di includere più informazioni utili possibili.

In sostanza il vecchio disco sul nas è stato sostituito da 2 nuovi dischi in RAID1 e sul nas ora è presente Debian 9.5, devo quindi accedere al vecchio disco, purtroppo non ricordo se fosse in Raid0 o JDOB, per recuperare i dati che mi servono, file, configurazioni etc... Se attacco il disco al nas ho questo:
Codice: Seleziona tutto
parted /dev/sde print
Model: Generic External (scsi)
Disk /dev/sde: 2000GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End     Size    File system     Name     Flags
 1      20.5kB  543MB   543MB   ext3            primary  msftdata
 2      543MB   1086MB  543MB   linux-swap(v1)  primary  msftdata
 3      1086MB  1991GB  1990GB                  primary  msftdata
 4      1991GB  1992GB  543MB   ext3            primary  msftdata
 5      1992GB  2000GB  8554MB  linux-swap(v1)  primary  msftdata

E appena collego il disco al sistema, sembra che ci sia un automount che mi collega, non so come, il tutto:
Codice: Seleziona tutto
[19491.561083] md/raid1:md127: active with 1 out of 1 mirrors
[19491.561178] md127: detected capacity change from 0 to 1990205046784
[19491.646456] md: bind<sde4>
[19491.653584] md: bind<sde1>
[19491.653649] md/raid1:md126: active with 1 out of 24 mirrors
[19491.659001] md/raid1:md125: active with 1 out of 24 mirrors
[19491.659441] created bitmap (1 pages) for device md125
[19491.662148] md125: bitmap initialized from disk: read 1 pages, set 9 of 9 bits
[19491.662799] md125: detected capacity change from 0 to 542834688
[19491.667012] md: bind<sde5>
[19491.673474] md/raid1:md124: active with 1 out of 2 mirrors
[19491.673947] created bitmap (1 pages) for device md124
[19491.674838] md124: bitmap initialized from disk: read 1 pages, set 8 of 111 bits
[19491.675334] md124: detected capacity change from 0 to 7408779264
[19491.677761] md: bind<sde2>
[19491.684751] md/raid1:md123: active with 1 out of 2 mirrors
[19491.685244] created bitmap (1 pages) for device md123
[19491.685854] md123: bitmap initialized from disk: read 1 pages, set 9 of 9 bits
[19491.686349] md123: detected capacity change from 0 to 542834688
[19491.706629] created bitmap (1 pages) for device md126
[19491.707855] md126: bitmap initialized from disk: read 1 pages, set 7 of 8 bits
[19491.708863] md126: detected capacity change from 0 to 469893120
[19504.179523] perf: interrupt took too long (2532 > 2500), lowering kernel.perf_event_max_sample_rate to 78750

Codice: Seleziona tutto
cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md125 : active (auto-read-only) raid1 sde1[0]
      530112 blocks super 1.0 [24/1] [U_______________________]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md127 : active (auto-read-only) raid1 sde3[0]
      1943559616 blocks super 1.0 [1/1] [U]

md126 : active (auto-read-only) raid1 sde4[0]
      458880 blocks super 1.0 [24/1] [U_______________________]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md124 : active (auto-read-only) raid1 sde5[0]
      7235136 blocks super 1.0 [2/1] [U_]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md123 : active (auto-read-only) raid1 sde2[0]
      530112 blocks super 1.0 [2/1] [U_]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md0 : active raid1 sdb1[1] sda1[0]
      3906885632 blocks super 1.2 [2/2] [UU]
      bitmap: 1/30 pages [4KB], 65536KB chunk

unused devices: <none>

Ora a colpo d'occhio direi che devo accedere alla partizione sde3, il problema è che non ci riesco!
Sto provando a seguire le informazioni che ho trovato qui https://forum.qnap.com/viewtopic.php?f= ... 9&start=15 (solo perchè la mia ricerca qnap mi ha portato li) il problema è che non ci salto proprio fuori, già di mio non sono esperto di linux, poi non ho mai avuto esperienza con il gruppi di volumi!

Cerco di accedere alla partizione
Codice: Seleziona tutto
lvchange -a y /dev/vg1/lv1
  Check of pool vg1/tp1 failed (status:1). Manual repair required!

Provando a vedere il perchè mi accorgo appunto che è stato tutto automontato di nuovo, provo a smontare
Codice: Seleziona tutto
root@Qnap:~# mdadm -S /dev/md127
mdadm: Cannot get exclusive access to /dev/md127:Perhaps a running process, mounted filesystem or active volume group?

e mi accorgo che è tornato occupata questa, da qui entro in un loop e non capisco più come fare per avere accesso a questa benedetta partizione!

Qualche idea e/o suggerimento?
Non vorrei fare danni irreparabili ::)
Ultima modifica di Chryses il 02/10/2018, 7:29, modificato 1 volta in totale.
Chryses
Newbie
Newbie
 
Messaggi: 3
Iscritto il: 29/09/2018, 12:55

Re: Aiuto accesso a partizione raid/jdob sotto lvm

Messaggioda Aki » 01/10/2018, 19:08

Dai dati che hai inviato sembrerebbe che il disco fosse parte di un raid1, ma l’altro componente non sarebbe collegato. Le partizioni, da quanto da te indicato nei log, sono di tipo ext3 e non sembrerebbe sia usato lvm per il contenuto del raid come da te tentato di usare per accedere. Per accedere al contenuto, dovrebbe essere sufficiente montare una delle due partizioni, se non danneggiate. C’è infine una partizione senza indicazione di tipo che potrebbe anche far parte di un volume group. Qual’è l’output del comando:
Codice: Seleziona tutto
vgscan --mknodes
?
Aki
Global Moderator
Global Moderator
 
Messaggi: 8005
Iscritto il: 27/12/2007, 16:59

Re: Aiuto accesso a partizione raid/jdob sotto lvm

Messaggioda Chryses » 02/10/2018, 7:29

Ciao, allora alla fine, con tanta testardaggine ho risolto!

Non so perchè venisse riconosciuto come raid1 con lvm, sicuramente non era un raid1 visto che era solo un disco. Sicuramente c'era un lvm creato sopra, una pool c'era per la gestione dello spazio.

In sostanza, dopo 23423432 tentativi a vuoto, ho trovato uno che disabilitava il thin check dal lvm.conf e magicamente così la partizione viene montata! Ho quindi recuperato i dati e ho smontato tutto, ripristinando poi la configurazione di lvm.conf
Chryses
Newbie
Newbie
 
Messaggi: 3
Iscritto il: 29/09/2018, 12:55

Re: [RISOLTO]Aiuto accesso a partizione raid/jdob sotto lvm

Messaggioda Aki » 02/10/2018, 8:09

Felice tu abbia risolto. Poiché sul disco erano presenti due partizioni ext3 , se non erro, della stessa dimensione potrebbe essere che fosse configurato un raid1 anche se sullo stesso disco (e quindi poco utile). Puoi riportare, se possibile, i comandi impartiti con cui hai risolto ? Dovresti averlo nel log di “history” della console che hai usato.
Aki
Global Moderator
Global Moderator
 
Messaggi: 8005
Iscritto il: 27/12/2007, 16:59

Re: [RISOLTO]Aiuto accesso a partizione raid/jdob sotto lvm

Messaggioda Chryses » 02/10/2018, 9:03

Ciao, ho fatto tanta di quella roba nel frattempo che la history è talmente satura di comandi ... ma ho fatto così:

1. Modificato
Codice: Seleziona tutto
/etc/lvm/lvm.conf
sezione global e ho impostato
Codice: Seleziona tutto
thin_check_executable = ""

2. Attivato il volume group corrispondente con
Codice: Seleziona tutto
lvchange -ay /dev/vg1

3. Montata la partizione con
Codice: Seleziona tutto
mount -t ext4 -o ro /dev/vg1/lv1 /media/x-qnap/


Così ho avuto accesso alla partizione e ho potuto copiare i dati sul nuovo hd.

Finito ho smontato il disco, sinceramente non ricordo se ho disattivato il volume group, ma poi il nas è ripartito, non credo di aver fatto danni
Chryses
Newbie
Newbie
 
Messaggi: 3
Iscritto il: 29/09/2018, 12:55



Torna a Generale

Chi c’è in linea

Visitano il forum: Nessuno e 3 ospiti