-
LINUX DISK RAID0 RAID1 RAID5 구성하는 방법(2편)System of Infra/Linux System 2022. 4. 5. 21:35728x90반응형
LINUX DISK RAID 0 RAID 1 RAID 5 구성하는 방법(2편)
[root@localhost dev]# ls -al | grep sd brw-rw---- 1 root disk 8, 0 3월 20 17:59 sda brw-rw---- 1 root disk 8, 1 3월 20 17:59 sda1 brw-rw---- 1 root disk 8, 2 3월 20 17:59 sda2 brw-rw---- 1 root disk 8, 16 3월 20 17:59 sdb brw-rw---- 1 root disk 8, 17 3월 20 18:10 sdb1 brw-rw---- 1 root disk 8, 32 3월 20 17:59 sdc brw-rw---- 1 root disk 8, 33 3월 20 18:10 sdc1 brw-rw---- 1 root disk 8, 48 3월 20 17:59 sdd brw-rw---- 1 root disk 8, 49 3월 20 17:59 sdd1 brw-rw---- 1 root disk 8, 64 3월 20 17:59 sde brw-rw---- 1 root disk 8, 65 3월 20 17:59 sde1 brw-rw---- 1 root disk 8, 80 3월 20 17:59 sdf brw-rw---- 1 root disk 8, 81 3월 20 17:59 sdf1 brw-rw---- 1 root disk 8, 96 3월 20 17:59 sdg brw-rw---- 1 root disk 8, 97 3월 20 17:59 sdg1 brw-rw---- 1 root disk 8, 112 3월 20 17:59 sdh brw-rw---- 1 root disk 8, 113 3월 20 17:59 sdh1 brw-rw---- 1 root disk 8, 128 3월 20 17:59 sdi brw-rw---- 1 root disk 8, 129 3월 20 17:59 sdi1 brw-rw---- 1 root disk 8, 144 3월 20 17:59 sdj brw-rw---- 1 root disk 8, 145 3월 20 17:59 sdj1
▶ 추가된 디스크를 통해서 RAID0 RAID 1 RAID 5를 구성해보도록 할 텐데요. 지난 시간에 Linear raid 구성으로 사용된 디스크를 제외하고 /dev/sdd1 /dev/sde1의 두 개 디스크를 통해서 RAID 0=Stripe와 RAID 1=Mirror 마지막으로 RAID 5를 구성해보도록 하겠습니다.
[root@localhost dev]# mdadm --create /dev/md0 --level=raid0 --raid-devices=2 /dev/sdd1 /dev/sde1 mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md0 started.
▶ mdadm 명령어를 통해서 두개의 디스크 /dev/sdd1과 /dev/sde1을 이용하여 RAID 0 디스크를 구성해보겠습니다. 디스크의 이름을 md0라고 지정합니다.
[root@localhost dev]# mdadm --detail --scan ARRAY /dev/md9 metadata=1.2 name=localhost.localdomain:9 UUID=167afdbc:194dd070:7dd17997:7fbc8323 ARRAY /dev/md0 metadata=1.2 name=localhost.localdomain:0 UUID=6e2f730b:e0cc2d22:55251851:cb151a15
▶ mdadm --detail --scan을 통해서 해당 시스템의 현재 디스크 구성을 살펴보게 되면 이전에 생성된 /dev/md9의 Linear Raid와 함께 RAID 0의 디스크인 /dev/md0가 생성된 것을 확인할 수 있습니다.
root@localhost dev]# mkfs.ext4 /dev/md0 mke2fs 1.44.3 (10-July-2018) Creating filesystem with 522752 4k blocks and 130816 inodes Filesystem UUID: 527b8d5c-d531-442d-afb4-edbbb9f7a897 Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912 Allocating group tables: done Writing inode tables: done Creating journal (8192 blocks): done Writing superblocks and filesystem accounting information: done Writing superblocks and filesystem accounting information: done
▶ 생성된 /dev/md0의 디스크 타입을 ext4로 생성합니다.
[root@localhost dev]# mkdir /raid0 [root@localhost dev]# mount /dev/md0 /raid0 [root@localhost /]# df -Th | grep -i /raid0 /dev/md0 ext4 2.0G 6.0M 1.9G 1% /raid0 /dev/md0 ext4 2.0G 6.0M 1.9G 1% /raid0
▶ 마운트 포인트로 지정할 디렉토리 /raid0 한 개를 생성 후 마운트 하게 되면 1G + 1G = 약 2G 용량의 RAID 0 디스크가 구성된 것을 확인할 수 있습니다.
* RAID 0
장점: 데이터가 동시에 저장되기 때문에 속도가 빠르고 효율이 좋음.
단점: 낮은 신뢰성으로 한개의 디스크가 장애가 나게 되면 데이터 전체가 유실됨.[root@localhost dev]# vi /etc/fstab # # /etc/fstab # Created by anaconda on Mon Feb 28 20:48:23 2022 # # Accessible filesystems, by reference, are maintained under '/dev/disk/'. # See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info. # # After editing this file, run 'systemctl daemon-reload' to update systemd # units generated from this file. # UUID=6d75a782-7d9b-4e9e-a338-fa882a919ada / xfs defaults 0 0 UUID=ae9aeae5-2577-49e3-86d9-63db631bc9d8 swap swap defaults 0 0 /dev/md9 /raidLinear ext4 defaults 0 0 /dev/md0 /raid0 ext4 defaults 0 0
▶ /etc/fstab에 마운트 포인트의 디렉터리를 지정해주게 되면 부팅 시 자동으로 마운트가 되는 설정을 할 수 있습니다.
[root@localhost dev]# mdadm --create /dev/md1 --level=raid1 --raid-devices=2 /dev/sdf1 /dev/sdg1 mdadm: Note: this array has metadata at the start and may not be suitable as a boot device. If you plan to store '/boot' on this device please ensure that your boot-loader understands md/v1.x metadata, or use --metadata=0.90 Continue creating array? y mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md1 started.
▶ 앞에서 RAID 0을 구성한 방법과 마찬가지로 mdadm 명령어를 통해서 /dev/sdf1과 /dev/sdg1의 디스크를 이용하여 /dev/md1 RAID1 디스크를 구성하도록 합니다.
[root@localhost dev]# mdadm --detail --scan ARRAY /dev/md9 metadata=1.2 name=localhost.localdomain:9 UUID=167afdbc:194dd070:7dd17997:7fbc8323 ARRAY /dev/md0 metadata=1.2 name=localhost.localdomain:0 UUID=6e2f730b:e0cc2d22:55251851:cb151a15 ARRAY /dev/md1 metadata=1.2 name=localhost.localdomain:1 UUID=789c03e6:75712250:fc73c1ae:fa772b9c
▶ mdadm --detail --scan을 통해서 해당 시스템의 현재 디스크 구성을 살펴보게 되면 이전에 생성된 /dev/md9 , /dev/md0 그리고 새로 생성된 /dev/md1이 생성된 것을 확인할 수 있습니다.
[root@localhost dev]# mdadm --detail /dev/md1 /dev/md1: Version : 1.2 Creation Time : Thu Mar 31 21:48:42 2022 Raid Level : raid1 Array Size : 1046528 (1022.00 MiB 1071.64 MB) Used Dev Size : 1046528 (1022.00 MiB 1071.64 MB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Update Time : Thu Mar 31 21:48:47 2022 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Consistency Policy : resync Name : localhost.localdomain:1 (local to host localhost.localdomain) UUID : 789c03e6:75712250:fc73c1ae:fa772b9c Events : 17 Number Major Minor RaidDevice State 0 8 81 0 active sync /dev/sdf1 1 8 97 1 active sync /dev/sdg1
▶ mdadm --detail /dev/md1 명령어를 통해서 해당 디스크의 형태와 타입이 어떤지 자세하게 확인을 할 수 있습니다. 마지막 줄에 /dev/sdf1 과 /dev/sdg1을 이용하여 생성한 것을 확인할 수 있고 active sync 상태인 것도 확인할 수 있습니다.
[root@localhost dev]# mkfs.ext4 /dev/md1 mke2fs 1.44.3 (10-July-2018) Creating filesystem with 261632 4k blocks and 65408 inodes Filesystem UUID: f8764978-9c22-4e9b-8d17-c74b7087d508 Superblock backups stored on blocks: 32768, 98304, 163840, 229376 Allocating group tables: done Writing inode tables: done Creating journal (4096 blocks): done Writing superblocks and filesystem accounting information: done
▶ 생성된 /dev/md1의 디스크 타입을 ext4로 생성합니다.
[root@localhost /]# mkdir /raid1 [root@localhost /]# mount /dev/md1 /raid1 [root@localhost /]# df -Th | grep -i /raid1 /dev/md1 ext4 990M 2.6M 921M 1% /raid1
▶ 마운트 포인트로 지정할 디렉터리 /raid1 한 개를 생성 후 마운트 하게 되면 RAID 0과 달리 RAID 1의 경우 한 개의 디스크 용량을 사용할 수 있기 때문에 약 1G의 용량을 사용할 수 있는 것을 확인할 수 있습니다.
*RAID 1
장점: 중요한 데이터의 안정성이 확보됨.
단점: 공간 효율이 좋지 않고 저장 공간이 두배로 필요함.[root@localhost /]# mdadm --create /dev/md5 --level=raid5 --raid-devices=3 /dev/sdh1 /dev/sdi1 /dev/sdj1 mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md5 started.
▶ 마지막으로 RAID 5의 디스크를 구성하기 위해서 /dev/sdh1 /dev/sdi1 /dev/sdj1 세 개의 디스크를 통해서 구성해보도록 하겠습니다.
[root@localhost /]# mkfs.ext4 /dev/md5 mke2fs 1.44.3 (10-July-2018) Creating filesystem with 522752 4k blocks and 130816 inodes Filesystem UUID: f213f96c-3c59-41f0-bbdd-904fcbaa872d Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912 Allocating group tables: done Writing inode tables: done Creating journal (8192 blocks): done Writing superblocks and filesystem accounting information: done
▶ 생성된 /dev/md5의 디스크 타입을 ext4로 생성합니다.
[root@localhost /]# mkdir /raid5 [root@localhost /]# mount /dev/md5 /raid5 [root@localhost /]# df -Th | grep -i /raid5 /dev/md5 ext4 2.0G 6.0M 1.9G 1% /raid5
▶ 3개의 디스크로 구성을 했지만 용량은 2G의 저장공간의 효율을 볼 수 있습니다.
*RAID 5
장점: RAID 1과 RAID 0 장점을 보유, 높은 안정성 보장
단점: 3개 이상의 디스크 필요와 총 디스크 개수 -1개의 저장 공간 효율[root@localhost /]# mdadm --detail --scan ARRAY /dev/md9 metadata=1.2 name=localhost.localdomain:9 UUID=167afdbc:194dd070:7dd17997:7fbc8323 ARRAY /dev/md0 metadata=1.2 name=localhost.localdomain:0 UUID=6e2f730b:e0cc2d22:55251851:cb151a15 ARRAY /dev/md1 metadata=1.2 name=localhost.localdomain:1 UUID=789c03e6:75712250:fc73c1ae:fa772b9c ARRAY /dev/md5 metadata=1.2 name=localhost.localdomain:5 UUID=70b9ce28:6daa0e7a:f8f0ed9e:97096edc
▶ /dev/sdh1 /dev/sdi1 /dev/sdj1로 생성된 /dev/md5의 UUID를 확인할 수 있습니다.
[root@localhost /]# mdadm --detail /dev/md5 /dev/md5: Version : 1.2 Creation Time : Thu Mar 31 21:53:36 2022 Raid Level : raid5 Array Size : 2091008 (2042.00 MiB 2141.19 MB) Used Dev Size : 1045504 (1021.00 MiB 1070.60 MB) Raid Devices : 3 Total Devices : 3 Persistence : Superblock is persistent Update Time : Thu Mar 31 21:54:11 2022 State : clean Active Devices : 3 Working Devices : 3 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 512K Consistency Policy : resync Name : localhost.localdomain:5 (local to host localhost.localdomain) UUID : 70b9ce28:6daa0e7a:f8f0ed9e:97096edc Events : 18 Number Major Minor RaidDevice State 0 8 113 0 active sync /dev/sdh1 1 8 129 1 active sync /dev/sdi1 3 8 145 2 active sync /dev/sdj1
▶ mdmadm --detail /dev/md5의 명령어를 통해서 Raid Level : raid5 인 것을 확인할 수 있습니다.
2022.03.30 - [System of Infra/LINUX] - LINUX DISK Linear RAID 구성하는 방법(1편)
LINUX DISK Linear RAID 구성하는 방법(1편)
LINUX DISK Linear RAID 구성하는 방법(1편) [root@localhost dev]# ls -al sd* brw-rw---- 1 root disk 8, 0 3월 20 17:41 sda brw-rw---- 1 root disk 8, 1 3월 20 17:41 sda1 brw-rw---- 1 root disk 8,..
pinetreeday.tistory.com
2022.03.23 - [System of Infra/LINUX] - LINUX DISK 추가를 통한 파티션 생성하는 방법(2편)
LINUX DISK 추가를 통한 파티션 생성하는 방법(2편)
LINUX DISK 추가를 통한 파티션 생성하는 방법(1편) [root@localhost dev]# ls -ltr | grep -i sd brw-rw---- 1 root disk 8, 16 3월 20 16:44 sdb brw-rw---- 1 root disk 8, 0 3월 20 16:44 sda brw-rw---- 1 r..
pinetreeday.tistory.com
2022.03.21 - [System of Infra/LINUX] - LINUX DISK 추가를 통한 파티션 생성하는 방법(1편)
LINUX DISK 추가를 통한 파티션 생성하는 방법(1편)
LINUX DISK 추가를 통한 파티션 생성하는 방법 [root@localhost ~]# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 80G 0 disk ├─sda1 8:1 0 4G 0 part [SWAP] └─sda2 8:2 0 76G 0 par..
pinetreeday.tistory.com
PS. 포스팅의 내용은 제 기준으로 작성한 것이기 때문에 참고해서 보시면 감사하겠습니다.
포스팅 과정의 오류 및 오타 그리고 궁금한 점에 대해서는 댓글 남겨주세요.
728x90반응형'System of Infra > Linux System' 카테고리의 다른 글
LINUX LVM(Logical Volume Managemant) 구성하는 방법 (1) 2022.04.26 LINUX DISK RAID0 RAID1 RAID5 장애 긴급 복구 하는 방법 (4) 2022.04.07 LINUX DISK Linear RAID 구성하는 방법(1편) (0) 2022.03.30 LINUX DISK 추가를 통한 파티션 생성하는 방법(2편) (2) 2022.03.23 LINUX DISK 추가를 통한 파티션 생성하는 방법(1편) (2) 2022.03.21