Raid mdadm con dischi >2TB
Eccoci dunque ad usare “disconi”…
Non si possono partizionare con gli strumenti classici (disk/cfdisk) dato che il partizionamento msdos non permette partizioni più grandi di 2TB.
Utilizziamo quindi gnu parted (gparted)
# parted -a optimal /dev/sdd
GNU Parted 2.3
Using /dev/sdd
Welcome to GNU Parted! Type 'help' to view a list of commands.
creiamo il partizionamento GPT e creiamo la partizione principale:
(parted) mklabel gpt
Warning: The existing disk label on /dev/sdc will be destroyed and all data on this disk will be lost. Do you want to
continue?
Yes/No? yes
(parted) mkpart primary 1 -1
(parted) print
Model: ATA WDC WD30EZRX-00M (scsi)
Disk /dev/sdc: 3001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Number Start End Size File system Name Flags
1 1049kB 3001GB 3001GB primary
(parted) align-check
alignment type(min/opt) [optimal]/minimal?
Partition number? 1
1 aligned
controllino:
(parted) print
Model: ATA WDC WD30EZRX-00M (scsi)
Disk /dev/sdc: 3001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Number Start End Size File system Name Flags
1 1049kB 3001GB 3001GB primary
(parted) quit
adesso facciamo la stessa cosa per il secondo disco e procediamo alla creazione del dispositivo MD:
# mdadm --create /dev/md1 --level=mirror --raid-devices=2 /dev/sdc1 missing
mdadm: /dev/sdc1 appears to be part of a raid array:
level=raid1 devices=2 ctime=Thu Sep 13 19:00:45 2012
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
Continue creating array? yes
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
creiamo il file system:
# mkfs.ext4 -m 0 -L SPACE /dev/md1
mke2fs 1.41.12 (17-May-2010)
Etichetta del filesystem=SPACE
Tipo SO: Linux
Dimensione blocco=4096 (log=2)
Dimensione frammento=4096 (log=2)
Stride=1 blocks, Stripe width=0 blocks
183148544 inode, 732565982 blocchi
0 blocchi (0.00%) riservati per l'utente root
Primo blocco dati=0
Maximum filesystem blocks=4294967296
22357 gruppi di blocchi
32768 blocchi per gruppo, 32768 frammenti per gruppo
8192 inode per gruppo
Backup del superblocco salvati nei blocchi:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968,
102400000, 214990848, 512000000, 550731776, 644972544
Scrittura delle tavole degli inode: fatto
Creating journal (32768 blocks): fatto
Scrittura delle informazioni dei superblocchi e dell'accounting del filesystem: fatto
l’array è ancora degradato:
# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sdc1[0]
2930263928 blocks super 1.2 [2/1] [U_]
aggiungiamo il secondo disco all’array:
# mdadm --manage /dev/md1 --add /dev/sdd1
mdadm: added /dev/sdd1
e controlliamo lo stato del riallineamento:
# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sdd1[2] sdc1[0]
2930263928 blocks super 1.2 [2/1] [U_]
[>....................] recovery = 0.0% (2553536/2930263928) finish=496.8min speed=98212K/sec
montiamo il filesystem e controlliamo:
# mount LABEL=SPACE /space/
# df -H /space
File system Dim. Usati Disp. Uso% Montato su
/dev/md1 3,0T 211M 3,0T 1% /space
fatto.