Ricerca nel sito web

Configurare RAID livello 6 (striping con doppia parità distribuita) in Linux - Parte 5


RAID 6 è la versione aggiornata di RAID 5, dove ha due parità distribuite che forniscono tolleranza agli errori anche dopo il guasto di due unità. Sistema mission-critical ancora operativo in caso di guasti simultanei di due dischi. È simile a RAID 5, ma è più robusto perché utilizza un disco in più per la parità.

Nel nostro articolo precedente abbiamo visto la parità distribuita in RAID 5, ma in questo articolo vedremo RAID 6 con doppia parità distribuita. Non aspettarti prestazioni extra rispetto a qualsiasi altro RAID, in tal caso dobbiamo installare anche un controller RAID dedicato. Qui in RAID 6 anche se perdiamo i nostri 2 dischi possiamo recuperare i dati sostituendo un'unità di riserva e costruendola dalla parità.

Per impostare un RAID 6, sono richiesti almeno 4 numeri di dischi o più in un set. RAID 6 ha più dischi, anche in alcuni set potrebbe avere un gruppo di dischi, durante la lettura, leggerà da tutte le unità, quindi la lettura sarebbe più veloce mentre la scrittura sarebbe scarsa perché deve eseguire lo striping su più dischi.

Ora, molti di noi giungono alla conclusione sul motivo per cui dobbiamo utilizzare RAID 6, quando non funziona come qualsiasi altro RAID. Hmm... coloro che sollevano questa domanda devono sapere che, se hanno bisogno di un'elevata tolleranza agli errori, scelgono RAID 6. In tutti gli ambienti superiori con elevata disponibilità per il database, utilizzano RAID 6 perché il database è il più importante e deve essere sicuro ad ogni costo, inoltre può essere utile per gli ambienti di streaming video.

Pro e contro di RAID 6

  1. Le prestazioni sono buone.
  2. RAID 6 è costoso poiché richiede l'utilizzo di due unità indipendenti per le funzioni di parità.
  3. Perderà la capacità di due dischi per l'utilizzo delle informazioni di parità (doppia parità).
  4. Nessuna perdita di dati, anche dopo il guasto di due dischi. Possiamo ricostruire dalla parità dopo aver sostituito il disco guasto.
  5. La lettura sarà migliore di RAID 5, perché legge da più dischi, ma le prestazioni di scrittura saranno molto scarse senza un controller RAID dedicato.

Requisiti

Sono necessari almeno 4 numeri di dischi per creare un RAID 6. Se vuoi aggiungere più dischi, puoi, ma devi avere un controller raid dedicato. Nel RAID software, non otterremo prestazioni migliori nel RAID 6. Quindi abbiamo bisogno di un controller RAID fisico.

Coloro che sono nuovi alla configurazione RAID, consigliamo di consultare gli articoli RAID riportati di seguito.

  1. Concetti di base del RAID in Linux – Parte 1
  2. Creazione del software RAID 0 (Stripe) in Linux – Parte 2
  3. Configurazione di RAID 1 (Mirroring) in Linux – Parte 3
La mia configurazione del server
Operating System :	CentOS 6.5 Final
IP Address	 :	192.168.0.228
Hostname	 :	rd6.tecmintlocal.com
Disk 1 [20GB]	 :	/dev/sdb
Disk 2 [20GB]	 :	/dev/sdc
Disk 3 [20GB]	 :	/dev/sdd
Disk 4 [20GB]	 : 	/dev/sde

Questo articolo è una Parte 5 di una serie di 9 tutorial RAID, qui vedremo come possiamo creare e configurare il software RAID 6 o Striping con doppia parità distribuita in Sistemi o server Linux che utilizzano quattro dischi da 20 GB denominati /dev/sdb, /dev/sdc, /dev/sdd e /dev/sde.

Passaggio 1: installazione dello strumento mdadm ed esame delle unità

1. Se stai seguendo i nostri ultimi due articoli Raid (Parte 2 e Parte 3), in cui abbiamo già mostrato come installa lo strumento 'mdadm'. Se sei nuovo in questo articolo, lasciami spiegare che "mdadm" è uno strumento per creare e gestire Raid nei sistemi Linux, installiamo lo strumento utilizzando il seguente comando in base alla tua distribuzione Linux.

yum install mdadm		[on RedHat systems]
apt-get install mdadm 	[on Debain systems]

2. Dopo aver installato lo strumento, ora è il momento di verificare le quattro unità collegate che utilizzeremo per la creazione del raid utilizzando il seguente comando "fdisk".

fdisk -l | grep sd

3. Prima di creare unità RAID, esamina sempre le nostre unità disco per verificare se sui dischi è già stato creato un RAID.

mdadm -E /dev/sd[b-e]
mdadm --examine /dev/sdb /dev/sdc /dev/sdd /dev/sde

Nota: nell'immagine sopra viene illustrato che non è stato rilevato alcun superblocco o che non è definito alcun RAID in quattro unità disco. Potremmo andare oltre per iniziare a creare RAID 6.

Passaggio 2: partizionamento dell'unità per RAID 6

4. Ora crea partizioni per il raid su '/dev/sdb', '/dev/sdc', '/dev/ sdd" e "/dev/sde" con l'aiuto del comando fdisk. Qui mostreremo come creare una partizione sull'unità sdb e successivamente gli stessi passaggi da seguire per il resto delle unità.

Crea la partizione /dev/sdb
fdisk /dev/sdb

Seguire le istruzioni mostrate di seguito per creare la partizione.

  1. Premi "n" per creare una nuova partizione.
  2. Quindi scegli "P" per Partizione primaria.
  3. Quindi scegli il numero della partizione come 1.
  4. Definisci il valore predefinito semplicemente premendo due volte il tasto Invio.
  5. Quindi premi "P" per stampare la partizione definita.
  6. Premi "L" per elencare tutti i tipi disponibili.
  7. Digita "t" per scegliere le partizioni.
  8. Scegli "fd" per Linux Raid Auto e premi Invio per applicare.
  9. Quindi utilizza nuovamente "P" per stampare le modifiche apportate.
  10. Utilizza "w" per scrivere le modifiche.

Crea la partizione /dev/sdb
fdisk /dev/sdc

Crea la partizione /dev/sdd
fdisk /dev/sdd

Crea la partizione /dev/sde
fdisk /dev/sde

5. Dopo aver creato le partizioni, è sempre una buona abitudine esaminare le unità per individuare i superblocchi. Se i superblocchi non esistono, possiamo procedere alla creazione di una nuova configurazione RAID.

mdadm -E /dev/sd[b-e]1


or

mdadm --examine /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1

Passaggio 3: creazione del dispositivo MD (RAID)

6. Ora è il momento di creare il dispositivo Raid 'md0' (ad esempio /dev/md0) e applicare il livello raid su tutte le partizioni appena create e conferma il raid utilizzando i seguenti comandi.

mdadm --create /dev/md0 --level=6 --raid-devices=4 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1
cat /proc/mdstat

7. Puoi anche controllare il processo corrente del raid utilizzando il comando watch come mostrato nella schermata qui sotto.

watch -n1 cat /proc/mdstat

8. Verifica i dispositivi raid utilizzando il seguente comando.

mdadm -E /dev/sd[b-e]1

Nota:: il comando precedente mostrerà le informazioni dei quattro dischi, che sono piuttosto lunghe quindi non è possibile pubblicare qui l'output o catturare lo schermo.

9. Successivamente, verifica l'array RAID per confermare che la risincronizzazione è avviata.

mdadm --detail /dev/md0

Passaggio 4: creazione del file system sul dispositivo raid

10. Crea un filesystem utilizzando ext4 per "/dev/md0" e montalo sotto /mnt/raid6. Qui abbiamo usato ext4, ma puoi usare qualsiasi tipo di filesystem secondo la tua scelta.

mkfs.ext4 /dev/md0

11. Monta il filesystem creato sotto /mnt/raid6 e verifica i file nel punto di montaggio, possiamo vedere la directory Lost+Found.

mkdir /mnt/raid6
mount /dev/md0 /mnt/raid6/
ls -l /mnt/raid6/

12. Crea alcuni file nel punto di montaggio e aggiungi del testo in uno qualsiasi dei file per verificarne il contenuto.

touch /mnt/raid6/raid6_test.txt
ls -l /mnt/raid6/
echo "tecmint raid setups" > /mnt/raid6/raid6_test.txt
cat /mnt/raid6/raid6_test.txt

13. Aggiungi una voce in /etc/fstab per montare automaticamente il dispositivo all'avvio del sistema e aggiungi la voce seguente, il punto di montaggio potrebbe differire in base al tuo ambiente.

vim /etc/fstab

/dev/md0                /mnt/raid6              ext4    defaults        0 0

14. Successivamente, esegui il comando "mount -a" per verificare se sono presenti errori nella voce fstab.

mount -av

Passaggio 5: salvare la configurazione RAID 6

15. Tieni presente che per impostazione predefinita RAID non dispone di un file di configurazione. Dobbiamo salvarlo manualmente utilizzando il comando seguente e quindi verificare lo stato del dispositivo "/dev/md0".

mdadm --detail --scan --verbose >> /etc/mdadm.conf
mdadm --detail /dev/md0

Passaggio 6: aggiunta di unità di riserva

16. Ora ha4 dischi e sono disponibili due informazioni sulla parità. In alcuni casi, se uno qualsiasi dei dischi si guasta, possiamo recuperare i dati, perché nel RAID 6 c'è una doppia parità.

Potrebbe succedere che se il secondo disco si guasta, possiamo aggiungerne uno nuovo prima di perdere il terzo disco. È possibile aggiungere un'unità di riserva durante la creazione del nostro set RAID, ma non ho definito l'unità di riserva durante la creazione del nostro set raid. Tuttavia, possiamo aggiungere un'unità di riserva dopo qualsiasi guasto dell'unità o durante la creazione del set RAID. Ora che abbiamo già creato il set RAID, consentitemi di aggiungere un'unità di riserva per la dimostrazione.

A scopo dimostrativo, ho collegato a caldo un nuovo disco HDD (ad esempio /dev/sdf), verifichiamo il disco collegato.

ls -l /dev/ | grep sd

17. Ora conferma nuovamente che il nuovo disco collegato per qualsiasi raid è già configurato o meno utilizzando lo stesso comando mdadm.

mdadm --examine /dev/sdf

Nota: come al solito, come in precedenza abbiamo creato partizioni per quattro dischi, allo stesso modo dobbiamo creare una nuova partizione sul nuovo disco collegato utilizzando fdisk< comando.

fdisk /dev/sdf

18. Ancora una volta, dopo aver creato una nuova partizione su /dev/sdf, conferma il raid sulla partizione, includi l'unità di riserva in /dev/md0 dispositivo raid e verifica il dispositivo aggiunto.

mdadm --examine /dev/sdf
mdadm --examine /dev/sdf1
mdadm --add /dev/md0 /dev/sdf1
mdadm --detail /dev/md0

Passaggio 7: verificare la tolleranza agli errori Raid 6

19. Ora controlliamo se l'unità di riserva funziona automaticamente, se qualcuno del disco si guasta nel nostro array. Per i test, ho contrassegnato personalmente una delle unità come guasta.

Qui contrassegneremo /dev/sdd1 come unità guasta.

mdadm --manage --fail /dev/md0 /dev/sdd1

20. Vorrei ora ottenere i dettagli del set RAID e controllare se la nostra riserva ha iniziato a sincronizzarsi.

mdadm --detail /dev/md0

Evviva! Qui possiamo vedere che il ricambio è stato attivato e ha iniziato il processo di ricostruzione. In basso possiamo vedere l'unità difettosa /dev/sdd1 elencata come difettosa. Possiamo monitorare il processo di compilazione utilizzando il seguente comando.

cat /proc/mdstat

Conclusione:

Qui abbiamo visto come configurare RAID 6 utilizzando quattro dischi. Questo livello RAID è una delle configurazioni costose con elevata ridondanza. Vedremo come impostare un Nested RAID 10 e molto altro nei prossimi articoli. Fino ad allora, rimani connesso con TECMINT.