[RISOLTO] Raid 5 corrotto

Discussioni relative a Debian e Linux

[RISOLTO] Raid 5 corrotto

Messaggioda grechk » 15/03/2017, 14:46

Ciao a tutti, ho un serissimo problema con il mio server casalingo.
Il server è composto da 5 dischi in raid 5 software + 1 di spare, 4 sono da 2 Tb e 2 da 4 Tb in quanto ho iniziato tempo fa a fare l'upgrade a 4 Tb. I 4 hard disk da 2 Tb sono partizionati in mbr, i 4 Tb sono gpt.
Il sistema operativo è debian 8.
Il problema è nato perchè i 4 hard disk da 2 Tb sono collegati ad un controller di vecchio tipo che ho scoperto non supportare capacità oltre i 2 Tb, mentre i 2 che ho già sostituito sono collegati ad un altro controller.
Ho deciso di acquistare un controller che supportasse capacità maggiori (adaptec asr-5805) e soprattutto che mi permettesse di collegare tutti gli hard disk, quindi ho scollegato tutto e sostituito il controller.
Avvio il computer e subito non fa il boot, allora guardo nella configurazione del controller ma non ho trovato il modo di farlo funzionare come semplice controller sata al posto di raid, provo a smanettare un pò nelle configurazioni sempre senza toccare la parte array, non volevo assolutamente che si danneggiasse qualcosa sui dischi.
Dopo 3 ore di tentativi ho rimesso tutto come prima rimandando il lavoro ad un momento in cui avessi avuto più tempo, ma anche con la vecchia configurazione non si avvia.
Accedo con una live di ubuntu, guardo gli hard disk e mi ritrovo con i 2 da 4 Tb vuoti... Tabella delle partizioni gpt corrotta!
Non ho capito il motivo di questa cosa, ma senza spaventarmi troppo con testdisk ricerco le partizioni e ripristino la tabella, sapendo che non avendo utilizzato il disco i dati devono essere ancora li, non modificati! Provo a assemblare il raid ma fallisce ancora in quanto l'UUID risulta cambiato.
Con mdadm esamino i vari dischi e apparentemente è tutto ok.

Ora non sono davanti al computer, comunque ricordo che tutti i dischi a parte lo spare hanno le stesse voci:
State : clean
Array State : AAAAA
L'unica voce che non conosco e non so se è un problema è:
Bad Block Log : 512 entries available at offset 72 sectors
Ho fatto ricerche ma non ho capito cosa significasse.

Dimenticavo... molto stupidamente non ho fatto backup, un pò perchè non ho modo di fare il backup di quella mole di dati, un pò perchè sono 6 anni che ho quel raid in funzione, iniziato con 4 hard disk da 500 Gb, aggiornato con i 1500 Gb, aggiornato di nuovo a 2000 Gb, ecc... mai un problema se non qualche failure di hard disk, ripristinato in poco tempo.
Cosa posso fare? Sono quasi alla disperazione!

Grazie
Saluti, Gianluca
Ultima modifica di grechk il 24/03/2017, 22:21, modificato 1 volta in totale.
grechk
Newbie
Newbie
 
Messaggi: 28
Iscritto il: 05/05/2014, 5:51

Re: Raid 5 corrotto

Messaggioda mark » 16/03/2017, 23:42

per caso hai inizializato i dischi sul controller adaptec? in questo caso brutte notizie
http://ask.adaptec.com/app/answers/detail/a_id/3251/kw/raid%20initialization
Please note that initializing the disk drive will delete all existing data.

in ogni caso
Can a failed array be recovered?
http://ask.adaptec.com/app/answers/detail/a_id/17012/related/1
It may be possible to force the array online or recreate the array without data loss. There is no guarantee of recovery. If there is critical data that has not been backed up, it is recommended to consult a professional data recovery service. It is possible the data may not be recovered.
Avatar utente
mark
Sr. Member
Sr. Member
 
Messaggi: 498
Iscritto il: 10/01/2007, 16:53

Re: Raid 5 corrotto

Messaggioda grechk » 17/03/2017, 10:41

Non ho inizializzato i dischi, sono stato ben attento a non toccare inizializzazione o create array o modify array... nulla di tutto ciò.
Il problema secondo me è nato dal fatto che ho collegato i 2 dischi da 4 Tb e quel controller ho scoperto li accetta solo con firmware > xxxx... Il mio firmware era più vecchio e infatti venivano visti come 2.2 Tb.
Ho aggiornato il firmware e poi venivano visti come 4 Tb, solo che non so come mi ha danneggiato qualcosa e i dischi risultavano vuoti, solo i 2 da 4 Tb, tutti gli altri no.

La guida per il recupero dati che mi hai linkato non è utilizzabile nel mio caso perchè il raid è software... eventualmente ci sarà qualche operazione da fare con mdadm per riassemblare i cocci, per ora non sto facendo nulla per evitare di peggiorare le cose. Ho fatto delle prove su /dev/md0 che è il raid del sistema operativo, per ora senza risultato. /dev/md1 è quello contenente i dati ed entrambi risiedono su quei 5+1 hard disk.

Per quanto riguarda sentire un professionista di data recovery, l'ho fatto ieri e anche loro mi hanno detto di cercare una soluzione software perchè da loro verrebbe a costare 8000-10000 €... Vorrei recuperare alcuni dati per me fondamentali e di cui molto stupidamente non ho backup, ma non valgono quella cifra. 1000€ magari li spenderei, non di più :)

Grazie
grechk
Newbie
Newbie
 
Messaggi: 28
Iscritto il: 05/05/2014, 5:51

Re: Raid 5 corrotto

Messaggioda mark » 17/03/2017, 12:43

quello che mi sento di consigliarti è di prendere nota di tutti i passaggi che hai fatto nell'operazione il prima possibile, in modo da non dimenticarne nessuno, poi con questo fatto ti consiglierei comunque di cercare un supporto debian professionale, vista la delicatezza della situazione
Avatar utente
mark
Sr. Member
Sr. Member
 
Messaggi: 498
Iscritto il: 10/01/2007, 16:53

Re: Raid 5 corrotto

Messaggioda grechk » 17/03/2017, 12:48

Cosa intendi per i passaggi che ho fatto? Intendi le prove sul raid del sistema operativo?
Il supporto debian professionale dove lo trovo?
grechk
Newbie
Newbie
 
Messaggi: 28
Iscritto il: 05/05/2014, 5:51

Re: Raid 5 corrotto

Messaggioda byte64 » 17/03/2017, 13:25

grechk ha scritto:Il problema secondo me è nato dal fatto che ho collegato i 2 dischi da 4 Tb e quel controller ho scoperto li accetta solo con firmware > xxxx... Il mio firmware era più vecchio e infatti venivano visti come 2.2 Tb.
Ho aggiornato il firmware e poi venivano visti come 4 Tb, solo che non so come mi ha danneggiato qualcosa e i dischi risultavano vuoti, solo i 2 da 4 Tb, tutti gli altri no.

Prima di fare l'aggiornamento del firmware i dischi risultavano già vuoti?

grechk ha scritto:Dopo 3 ore di tentativi ho rimesso tutto come prima rimandando il lavoro ad un momento in cui avessi avuto più tempo, ma anche con la vecchia configurazione non si avvia.
Accedo con una live di ubuntu, guardo gli hard disk e mi ritrovo con i 2 da 4 Tb vuoti... Tabella delle partizioni gpt corrotta!

Avevi già aggiornato il firmware prima della situazione qui sopra?

Un tentativo potrebbe essere fatto reinstallando il firmware originale se alla seconda domanda dai risponsta affermativa.
byte64
Sr. Member
Sr. Member
 
Messaggi: 285
Iscritto il: 07/01/2017, 19:02
Località: Bergamo

Re: Raid 5 corrotto

Messaggioda grechk » 17/03/2017, 15:31

No, il problema è successo proprio quando ho cambiato il controller.
Situazione iniziale:
1 controller con 4 dischi da 2 Tb
1 controller con 2 dischi da 4 Tb
Risultato che volevo ottenere:
1 controller con i 6 dischi che pian piano avrei ampliato tutti a 4 Tb

Risultato:
dopo aver connesso i 6 dischi al controller "nuovo" i 2 da 4 Tb risultavano senza partizioni.

n.b. ho aggiornato il firmware perchè non riconosceva correttamente i 4 Tb e secondo me è li che ha fatto casino.
Ora ho ripristinato la situazione iniziale (che funzionava perfettamente) e sto cercando disperatamente di recuperare i dati, farmi un backup e riprovare ad installare quel controller.
grechk
Newbie
Newbie
 
Messaggi: 28
Iscritto il: 05/05/2014, 5:51

Re: Raid 5 corrotto

Messaggioda byte64 » 17/03/2017, 17:39

Quindi se ho ben capito, quando hai ricollegato i dischi da 4TB al vecchio controller per la prima volta, dopo che ti sei accorto che erano "vuoti", avevi già aggiornato il firmware, giusto?
In tal caso io proverei a fare come ti ho consigliato nel post precedente, non sempre è possibile flashare un firmware più vecchio su uno nuovo, ma se nel tuo caso è possibile potrebbe permetterti di tornare indietro alla situazione iniziale.
Inizia a farlo su uno solo dei due dischi, con 4 dischi su 5 il raid5 lo ricostrusci ancora.
byte64
Sr. Member
Sr. Member
 
Messaggi: 285
Iscritto il: 07/01/2017, 19:02
Località: Bergamo

Re: Raid 5 corrotto

Messaggioda grechk » 17/03/2017, 21:47

Non posso rimettere il vecchio firmware, ma in ogni caso non vedo come ciò possa risolvere.
Stiamo parlando del firmware del controller, la tabella delle partizioni è sul disco ed ormai è andata. Recuperata con testdisk ma sicuramente c'è anche qualcosa di altro, visto che mi restituisce "no md superblock" quando provo ad assemblare l'array.
Ora sto facendo esperimenti con r-studio, se vedo la possibilità di recuperare i dati acquisto la licenza.
Se a qualcuno viene un altra idea ben venga.
grechk
Newbie
Newbie
 
Messaggi: 28
Iscritto il: 05/05/2014, 5:51

Re: Raid 5 corrotto

Messaggioda byte64 » 17/03/2017, 22:36

Avevo inteso che il firmware aggiornato era quello dei dischi, non del controller.....ops!
Rileggendo meglio il tuo post effettivamente ora è più chiaro.
Però l'idea di base di rimettere il vecchio firmware, eventualmente anche sul controller non è poi così sbagliata...peccato che non puoi fare una prova. Anche perchè da quanto hai fatto è l'unica operazione eseguita che influisce sul collegamento/dialogo tra controller e dischi.
byte64
Sr. Member
Sr. Member
 
Messaggi: 285
Iscritto il: 07/01/2017, 19:02
Località: Bergamo

Re: Raid 5 corrotto

Messaggioda grechk » 18/03/2017, 6:37

Stanotte mi è venuta un'idea però ho paura a metterla in pratica, visto che ho un disco spare, se simulo il fail di un 4 Tb dovrebbe risincronizzarsi usando lo spare, in teoria potrebbe funzionare (penso), in pratica non vorrei peggiorare. La cosa strana è che dalle informazioni che mi da mdadm dovrebbe essere tutto ok (scrivo a memoria perché non sono davanti al pc), i dati sono gli stessi per tutti i dischi:
Array state: clean
Events: 51080 (o 50180) l'importante è che sia uguale sui vari dischi
Chunk size: 512kb
RaidDevice: numero progressivo da 0 a 4

L'unico che non so cosa significa è:
Bad Block Log : 512 entries available at offset 72 sectors
grechk
Newbie
Newbie
 
Messaggi: 28
Iscritto il: 05/05/2014, 5:51

Re: Raid 5 corrotto

Messaggioda grechk » 18/03/2017, 22:21

Qualche informazione in più:

Codice: Seleziona tutto
root@MS-7623:~# mdadm --verbose --assemble /dev/md1 --uuid=de63e8b0:3370b7da:40ac5b6b:2f5e5950
mdadm: looking for devices for /dev/md1
mdadm: no RAID superblock on /dev/sdf5
mdadm: no RAID superblock on /dev/sdf2
mdadm: /dev/sdf1 has wrong uuid.
mdadm: no RAID superblock on /dev/sdf
mdadm: no RAID superblock on /dev/sde5
mdadm: no RAID superblock on /dev/sde2
mdadm: /dev/sde1 has wrong uuid.
mdadm: no RAID superblock on /dev/sde
mdadm: no RAID superblock on /dev/sdg5
mdadm: no RAID superblock on /dev/sdg2
mdadm: /dev/sdg1 has wrong uuid.
mdadm: no RAID superblock on /dev/sdg
mdadm: no RAID superblock on /dev/sdd5
mdadm: no RAID superblock on /dev/sdd2
mdadm: /dev/sdd1 has wrong uuid.
mdadm: no RAID superblock on /dev/sdd
mdadm: cannot open device /dev/sr0: No medium found
mdadm: no RAID superblock on /dev/sdc4
mdadm: no RAID superblock on /dev/sdc3
mdadm: /dev/sdc2 has wrong uuid.
mdadm: no RAID superblock on /dev/sdc1
mdadm: no RAID superblock on /dev/sdc
mdadm: no RAID superblock on /dev/sdb3
mdadm: /dev/sdb2 has wrong uuid.
mdadm: no RAID superblock on /dev/sdb1
mdadm: no RAID superblock on /dev/sdb
mdadm: no RAID superblock on /dev/sda5
mdadm: no RAID superblock on /dev/sda4
mdadm: no RAID superblock on /dev/sda3
mdadm: no RAID superblock on /dev/sda2
mdadm: no RAID superblock on /dev/sda1
mdadm: no RAID superblock on /dev/sda
mdadm: /dev/sdf6 is identified as a member of /dev/md1, slot 2.
mdadm: /dev/sde6 is identified as a member of /dev/md1, slot 1.
mdadm: /dev/sdg6 is identified as a member of /dev/md1, slot 3.
mdadm: /dev/sdd6 is identified as a member of /dev/md1, slot -1.
mdadm: /dev/sdc5 is identified as a member of /dev/md1, slot 4.
mdadm: /dev/sdb4 is identified as a member of /dev/md1, slot 0.
mdadm: added /dev/sde6 to /dev/md1 as 1
mdadm: added /dev/sdf6 to /dev/md1 as 2
mdadm: added /dev/sdg6 to /dev/md1 as 3
mdadm: failed to add /dev/sdc5 to /dev/md1: Invalid argument
mdadm: added /dev/sdd6 to /dev/md1 as -1
mdadm: failed to add /dev/sdb4 to /dev/md1: Invalid argument
mdadm: failed to RUN_ARRAY /dev/md1: Input/output error


Codice: Seleziona tutto
root@MS-7623:~# mdadm --detail /dev/md1
/dev/md1:
        Version : 1.2
  Creation Time : Mon May  2 11:22:43 2011
     Raid Level : raid5
  Used Dev Size : 1946518528 (1856.34 GiB 1993.23 GB)
   Raid Devices : 5
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Mon Mar 13 07:51:17 2017
          State : active, FAILED, Not Started
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

           Name : server0:1
           UUID : de63e8b0:3370b7da:40ac5b6b:2f5e5950
         Events : 574877

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       6       8       70        1      active sync   /dev/sde6
       7       8       86        2      active sync   /dev/sdf6
       4       8      102        3      active sync   /dev/sdg6
       4       0        0        4      removed

       5       8       54        -      spare   /dev/sdd6
grechk
Newbie
Newbie
 
Messaggi: 28
Iscritto il: 05/05/2014, 5:51

Re: Raid 5 corrotto

Messaggioda grechk » 18/03/2017, 22:21

Altre info:

Codice: Seleziona tutto
[code]root@MS-7623:~# mdadm --examine /dev/sdb4
/dev/sdb4:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : de63e8b0:3370b7da:40ac5b6b:2f5e5950
           Name : server0:1
  Creation Time : Mon May  2 11:22:43 2011
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 3893037056 (1856.34 GiB 1993.23 GB)
     Array Size : 7786074112 (7425.38 GiB 7972.94 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 84af0dbd:f7688332:6f6cd8b0:b1bb7c5c

    Update Time : Mon Mar 13 17:23:59 2017
       Checksum : b3fa334c - correct
         Events : 574877

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAAAA ('A' == active, '.' == missing)
root@MS-7623:~# mdadm --examine /dev/sdc5
/dev/sdc5:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : de63e8b0:3370b7da:40ac5b6b:2f5e5950
           Name : server0:1
  Creation Time : Mon May  2 11:22:43 2011
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 3893037056 (1856.34 GiB 1993.23 GB)
     Array Size : 7786074112 (7425.38 GiB 7972.94 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 4ca624f6:a7056c71:6f4c2154:00694d05

    Update Time : Mon Mar 13 17:23:59 2017
       Checksum : 78135412 - correct
         Events : 574877

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 4
   Array State : AAAAA ('A' == active, '.' == missing)
root@MS-7623:~# mdadm --examine /dev/sdd6
/dev/sdd6:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : de63e8b0:3370b7da:40ac5b6b:2f5e5950
           Name : server0:1
  Creation Time : Mon May  2 11:22:43 2011
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 3893037056 (1856.34 GiB 1993.23 GB)
     Array Size : 7786074112 (7425.38 GiB 7972.94 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 8ad26f38:9ff47984:a239197b:ad9b53e6

    Update Time : Mon Mar 13 07:51:17 2017
       Checksum : d56a08eb - correct
         Events : 574877

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : spare
   Array State : AAAAA ('A' == active, '.' == missing)
root@MS-7623:~# mdadm --examine /dev/sde6
/dev/sde6:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : de63e8b0:3370b7da:40ac5b6b:2f5e5950
           Name : server0:1
  Creation Time : Mon May  2 11:22:43 2011
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 3893037056 (1856.34 GiB 1993.23 GB)
     Array Size : 7786074112 (7425.38 GiB 7972.94 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 72aa1ef6:9cc746b9:fab7cb3e:9e993938

    Update Time : Mon Mar 13 17:23:59 2017
       Checksum : dd76b60c - correct
         Events : 574877

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : AAAAA ('A' == active, '.' == missing)
root@MS-7623:~# mdadm --examine /dev/sdf6
/dev/sdf6:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : de63e8b0:3370b7da:40ac5b6b:2f5e5950
           Name : server0:1
  Creation Time : Mon May  2 11:22:43 2011
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 3893037056 (1856.34 GiB 1993.23 GB)
     Array Size : 7786074112 (7425.38 GiB 7972.94 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 0b761720:aa4e41de:9ae95f61:d2b7fda4

    Update Time : Mon Mar 13 17:23:59 2017
       Checksum : bbca58d0 - correct
         Events : 574877

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : AAAAA ('A' == active, '.' == missing)
root@MS-7623:~# mdadm --examine /dev/sdg6
/dev/sdg6:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : de63e8b0:3370b7da:40ac5b6b:2f5e5950
           Name : server0:1
  Creation Time : Mon May  2 11:22:43 2011
     Raid Level : raid5
   Raid Devices : 5

 Avail Dev Size : 3893037056 (1856.34 GiB 1993.23 GB)
     Array Size : 7786074112 (7425.38 GiB 7972.94 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : f621b605:1f2a55af:c562e8bc:9d664a95

    Update Time : Mon Mar 13 17:23:59 2017
       Checksum : be520823 - correct
         Events : 574877

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 3
   Array State : AAAAA ('A' == active, '.' == missing)[/code]
grechk
Newbie
Newbie
 
Messaggi: 28
Iscritto il: 05/05/2014, 5:51

Re: Raid 5 corrotto

Messaggioda mark » 19/03/2017, 15:49

non ho letto approfonditamente, ma direi che vale la pena verificare
https://bugs.debian.org/cgi-bin/bugreport.cgi?bug=728677
o anche piu in generale
https://bugs.debian.org/cgi-bin/pkgreport.cgi?src=mdadm

altra cosa da verificare bene
https://raid.wiki.kernel.org/index.php/Timeout_Mismatch
https://raid.wiki.kernel.org/index.php/Recovering_a_damaged_RAID
ovviamente non avendo il tuo hardware non posso fare prove e verifiche puntuali su quanto riportato nei collegamenti relativi

infine si può sempre provare con l'assistenza tecnica di adaptec e sentire cosa rispondono
Avatar utente
mark
Sr. Member
Sr. Member
 
Messaggi: 498
Iscritto il: 10/01/2007, 16:53

Re: Raid 5 corrotto

Messaggioda mark » 21/03/2017, 11:28

altro link, prometto è l'ultimo, relativo ad un bug risolto ma che può essere utile per il metodo di soluzione della mancanza dei metadati
http://neil.brown.name/blog/20120615073245
nel frattempo hai fatto prove ulteriori?
Avatar utente
mark
Sr. Member
Sr. Member
 
Messaggi: 498
Iscritto il: 10/01/2007, 16:53

Prossimo

Torna a Generale

Chi c’è in linea

Visitano il forum: Nessuno e 1 ospite

cron