ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • LINUX DISK RAID0 RAID1 RAID5 구성하는 방법(2편)
    System of Infra/Linux System 2022. 4. 5. 21:35
    반응형

    LINUX 로고이미지

    LINUX DISK  RAID 0 RAID 1 RAID 5 구성하는 방법(2편)

    [root@localhost dev]# ls -al | grep sd
    brw-rw----   1 root disk      8,   0  3월 20 17:59 sda
    brw-rw----   1 root disk      8,   1  3월 20 17:59 sda1
    brw-rw----   1 root disk      8,   2  3월 20 17:59 sda2
    brw-rw----   1 root disk      8,  16  3월 20 17:59 sdb
    brw-rw----   1 root disk      8,  17  3월 20 18:10 sdb1
    brw-rw----   1 root disk      8,  32  3월 20 17:59 sdc
    brw-rw----   1 root disk      8,  33  3월 20 18:10 sdc1
    brw-rw----   1 root disk      8,  48  3월 20 17:59 sdd
    brw-rw----   1 root disk      8,  49  3월 20 17:59 sdd1
    brw-rw----   1 root disk      8,  64  3월 20 17:59 sde
    brw-rw----   1 root disk      8,  65  3월 20 17:59 sde1
    brw-rw----   1 root disk      8,  80  3월 20 17:59 sdf
    brw-rw----   1 root disk      8,  81  3월 20 17:59 sdf1
    brw-rw----   1 root disk      8,  96  3월 20 17:59 sdg
    brw-rw----   1 root disk      8,  97  3월 20 17:59 sdg1
    brw-rw----   1 root disk      8, 112  3월 20 17:59 sdh
    brw-rw----   1 root disk      8, 113  3월 20 17:59 sdh1
    brw-rw----   1 root disk      8, 128  3월 20 17:59 sdi
    brw-rw----   1 root disk      8, 129  3월 20 17:59 sdi1
    brw-rw----   1 root disk      8, 144  3월 20 17:59 sdj
    brw-rw----   1 root disk      8, 145  3월 20 17:59 sdj1
    ▶ 추가된 디스크를 통해서 RAID0 RAID 1 RAID 5를 구성해보도록 할 텐데요. 지난 시간에 Linear raid 구성으로 사용된 디스크를 제외하고 /dev/sdd1 /dev/sde1의 두 개 디스크를 통해서 RAID 0=Stripe와 RAID 1=Mirror 마지막으로 RAID 5를 구성해보도록 하겠습니다.
    [root@localhost dev]# mdadm --create /dev/md0 --level=raid0 --raid-devices=2 /dev/sdd1 /dev/sde1
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md0 started.
    ▶ mdadm 명령어를 통해서 두개의 디스크 /dev/sdd1과 /dev/sde1을 이용하여 RAID 0 디스크를 구성해보겠습니다. 디스크의 이름을 md0라고 지정합니다.
    [root@localhost dev]# mdadm --detail --scan
    ARRAY /dev/md9 metadata=1.2 name=localhost.localdomain:9 UUID=167afdbc:194dd070:7dd17997:7fbc8323
    ARRAY /dev/md0 metadata=1.2 name=localhost.localdomain:0 UUID=6e2f730b:e0cc2d22:55251851:cb151a15
    ▶ mdadm --detail --scan을 통해서 해당 시스템의 현재 디스크 구성을 살펴보게 되면 이전에 생성된 /dev/md9의 Linear Raid와 함께 RAID 0의 디스크인 /dev/md0가 생성된 것을 확인할 수 있습니다.
    root@localhost dev]# mkfs.ext4 /dev/md0
    mke2fs 1.44.3 (10-July-2018)
    Creating filesystem with 522752 4k blocks and 130816 inodes
    Filesystem UUID: 527b8d5c-d531-442d-afb4-edbbb9f7a897
    Superblock backups stored on blocks: 
    	32768, 98304, 163840, 229376, 294912
    
    Allocating group tables: done                            
    Writing inode tables: done                            
    Creating journal (8192 blocks): done
    Writing superblocks and filesystem accounting information: done
    
    Writing superblocks and filesystem accounting information: done
    ▶ 생성된 /dev/md0의 디스크 타입을 ext4로 생성합니다.
    [root@localhost dev]# mkdir /raid0
    
    [root@localhost dev]# mount /dev/md0 /raid0
    
    [root@localhost /]# df -Th | grep -i /raid0
    /dev/md0       ext4      2.0G  6.0M  1.9G   1% /raid0
    /dev/md0       ext4      2.0G  6.0M  1.9G   1% /raid0
    ▶ 마운트 포인트로 지정할 디렉토리 /raid0 한 개를 생성 후 마운트 하게 되면 1G + 1G = 약 2G 용량의 RAID 0 디스크가 구성된 것을 확인할 수 있습니다.

    * RAID 0
    장점: 데이터가 동시에 저장되기 때문에 속도가 빠르고 효율이 좋음.
    단점: 낮은 신뢰성으로 한개의 디스크가 장애가 나게 되면 데이터 전체가 유실됨.
    [root@localhost dev]# vi /etc/fstab
    #
    # /etc/fstab
    # Created by anaconda on Mon Feb 28 20:48:23 2022
    #
    # Accessible filesystems, by reference, are maintained under '/dev/disk/'.
    # See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info.
    #
    # After editing this file, run 'systemctl daemon-reload' to update systemd
    # units generated from this file.
    #
    UUID=6d75a782-7d9b-4e9e-a338-fa882a919ada /                       xfs     defaults        0 0
    UUID=ae9aeae5-2577-49e3-86d9-63db631bc9d8 swap                    swap    defaults        0 0
    /dev/md9			          /raidLinear	          ext4    defaults	  0 0
    /dev/md0			          /raid0	              ext4    defaults	  0 0
    ▶ /etc/fstab에 마운트 포인트의 디렉터리를 지정해주게 되면 부팅 시 자동으로 마운트가 되는 설정을 할 수 있습니다.
    [root@localhost dev]# mdadm --create /dev/md1 --level=raid1 --raid-devices=2 /dev/sdf1 /dev/sdg1
    mdadm: Note: this array has metadata at the start and may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
    Continue creating array? y
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md1 started.
    ▶ 앞에서 RAID 0을 구성한 방법과 마찬가지로 mdadm 명령어를 통해서 /dev/sdf1과 /dev/sdg1의 디스크를 이용하여  /dev/md1 RAID1 디스크를 구성하도록 합니다.
    [root@localhost dev]# mdadm --detail --scan
    ARRAY /dev/md9 metadata=1.2 name=localhost.localdomain:9 UUID=167afdbc:194dd070:7dd17997:7fbc8323
    ARRAY /dev/md0 metadata=1.2 name=localhost.localdomain:0 UUID=6e2f730b:e0cc2d22:55251851:cb151a15
    ARRAY /dev/md1 metadata=1.2 name=localhost.localdomain:1 UUID=789c03e6:75712250:fc73c1ae:fa772b9c
    ▶ mdadm --detail --scan을 통해서 해당 시스템의 현재 디스크 구성을 살펴보게 되면 이전에 생성된 /dev/md9 , /dev/md0 그리고 새로 생성된 /dev/md1이 생성된 것을 확인할 수 있습니다.
    [root@localhost dev]# mdadm --detail /dev/md1
    /dev/md1:
               Version : 1.2
         Creation Time : Thu Mar 31 21:48:42 2022
            Raid Level : raid1
            Array Size : 1046528 (1022.00 MiB 1071.64 MB)
         Used Dev Size : 1046528 (1022.00 MiB 1071.64 MB)
          Raid Devices : 2
         Total Devices : 2
           Persistence : Superblock is persistent
    
           Update Time : Thu Mar 31 21:48:47 2022
                 State : clean 
        Active Devices : 2
       Working Devices : 2
        Failed Devices : 0
         Spare Devices : 0
    
    Consistency Policy : resync
    
                  Name : localhost.localdomain:1  (local to host localhost.localdomain)
                  UUID : 789c03e6:75712250:fc73c1ae:fa772b9c
                Events : 17
    
        Number   Major   Minor   RaidDevice State
           0       8       81        0      active sync   /dev/sdf1
           1       8       97        1      active sync   /dev/sdg1
    ▶ mdadm --detail /dev/md1 명령어를 통해서 해당 디스크의 형태와 타입이 어떤지 자세하게 확인을 할 수 있습니다. 마지막 줄에 /dev/sdf1 과 /dev/sdg1을 이용하여 생성한 것을 확인할 수 있고 active sync 상태인 것도 확인할 수 있습니다.
    [root@localhost dev]# mkfs.ext4 /dev/md1
    mke2fs 1.44.3 (10-July-2018)
    Creating filesystem with 261632 4k blocks and 65408 inodes
    Filesystem UUID: f8764978-9c22-4e9b-8d17-c74b7087d508
    Superblock backups stored on blocks: 
    	32768, 98304, 163840, 229376
    
    Allocating group tables: done                            
    Writing inode tables: done                            
    Creating journal (4096 blocks): done
    Writing superblocks and filesystem accounting information: done
    ▶ 생성된 /dev/md1의 디스크 타입을 ext4로 생성합니다.
    [root@localhost /]# mkdir /raid1
    
    [root@localhost /]# mount /dev/md1 /raid1
    
    [root@localhost /]# df -Th | grep -i /raid1
    /dev/md1       ext4      990M  2.6M  921M   1% /raid1
    ▶ 마운트 포인트로 지정할 디렉터리 /raid1 한 개를 생성 후 마운트 하게 되면 RAID 0과 달리 RAID 1의 경우 한 개의 디스크 용량을 사용할 수 있기 때문에 약 1G의 용량을 사용할 수 있는 것을 확인할 수 있습니다.

    *RAID 1
    장점: 중요한 데이터의 안정성이 확보됨.
    단점: 공간 효율이 좋지 않고 저장 공간이 두배로 필요함.
    [root@localhost /]# mdadm --create /dev/md5 --level=raid5 --raid-devices=3 /dev/sdh1 /dev/sdi1 /dev/sdj1
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md5 started.
    ▶ 마지막으로 RAID 5의 디스크를 구성하기 위해서 /dev/sdh1 /dev/sdi1 /dev/sdj1 세 개의 디스크를 통해서 구성해보도록 하겠습니다.
    [root@localhost /]# mkfs.ext4 /dev/md5
    mke2fs 1.44.3 (10-July-2018)
    Creating filesystem with 522752 4k blocks and 130816 inodes
    Filesystem UUID: f213f96c-3c59-41f0-bbdd-904fcbaa872d
    Superblock backups stored on blocks: 
    	32768, 98304, 163840, 229376, 294912
    
    Allocating group tables: done                            
    Writing inode tables: done                            
    Creating journal (8192 blocks): done
    Writing superblocks and filesystem accounting information: done
    ▶ 생성된 /dev/md5의 디스크 타입을 ext4로 생성합니다.
    [root@localhost /]# mkdir /raid5
    
    [root@localhost /]# mount /dev/md5 /raid5
    
    [root@localhost /]# df -Th | grep -i /raid5
    /dev/md5       ext4      2.0G  6.0M  1.9G   1% /raid5
    ▶ 3개의 디스크로 구성을 했지만 용량은 2G의 저장공간의 효율을 볼 수 있습니다.

    *RAID 5
    장점: RAID 1과 RAID 0 장점을 보유, 높은 안정성 보장
    단점: 3개 이상의 디스크 필요와 총 디스크 개수 -1개의 저장 공간 효율
    [root@localhost /]# mdadm --detail --scan
    ARRAY /dev/md9 metadata=1.2 name=localhost.localdomain:9 UUID=167afdbc:194dd070:7dd17997:7fbc8323
    ARRAY /dev/md0 metadata=1.2 name=localhost.localdomain:0 UUID=6e2f730b:e0cc2d22:55251851:cb151a15
    ARRAY /dev/md1 metadata=1.2 name=localhost.localdomain:1 UUID=789c03e6:75712250:fc73c1ae:fa772b9c
    ARRAY /dev/md5 metadata=1.2 name=localhost.localdomain:5 UUID=70b9ce28:6daa0e7a:f8f0ed9e:97096edc
    ▶ /dev/sdh1 /dev/sdi1 /dev/sdj1로 생성된 /dev/md5의 UUID를 확인할 수 있습니다.
    [root@localhost /]# mdadm --detail /dev/md5
    /dev/md5:
               Version : 1.2
         Creation Time : Thu Mar 31 21:53:36 2022
            Raid Level : raid5
            Array Size : 2091008 (2042.00 MiB 2141.19 MB)
         Used Dev Size : 1045504 (1021.00 MiB 1070.60 MB)
          Raid Devices : 3
         Total Devices : 3
           Persistence : Superblock is persistent
    
           Update Time : Thu Mar 31 21:54:11 2022
                 State : clean 
        Active Devices : 3
       Working Devices : 3
        Failed Devices : 0
         Spare Devices : 0
    
                Layout : left-symmetric
            Chunk Size : 512K
    
    Consistency Policy : resync
    
                  Name : localhost.localdomain:5  (local to host localhost.localdomain)
                  UUID : 70b9ce28:6daa0e7a:f8f0ed9e:97096edc
                Events : 18
    
        Number   Major   Minor   RaidDevice State
           0       8      113        0      active sync   /dev/sdh1
           1       8      129        1      active sync   /dev/sdi1
           3       8      145        2      active sync   /dev/sdj1
    ▶ mdmadm --detail /dev/md5의 명령어를 통해서 Raid Level : raid5 인 것을 확인할 수 있습니다.

    2022.03.30 - [System of Infra/LINUX] - LINUX DISK Linear RAID 구성하는 방법(1편)

     

    LINUX DISK Linear RAID 구성하는 방법(1편)

    LINUX DISK Linear RAID 구성하는 방법(1편) [root@localhost dev]# ls -al sd* brw-rw---- 1 root disk 8, 0 3월 20 17:41 sda brw-rw---- 1 root disk 8, 1 3월 20 17:41 sda1 brw-rw---- 1 root disk 8,..

    pinetreeday.tistory.com

    2022.03.23 - [System of Infra/LINUX] - LINUX DISK 추가를 통한 파티션 생성하는 방법(2편)

     

    LINUX DISK 추가를 통한 파티션 생성하는 방법(2편)

    LINUX DISK 추가를 통한 파티션 생성하는 방법(1편) [root@localhost dev]# ls -ltr | grep -i sd brw-rw---- 1 root disk 8, 16 3월 20 16:44 sdb brw-rw---- 1 root disk 8, 0 3월 20 16:44 sda brw-rw---- 1 r..

    pinetreeday.tistory.com

    2022.03.21 - [System of Infra/LINUX] - LINUX DISK 추가를 통한 파티션 생성하는 방법(1편)

     

    LINUX DISK 추가를 통한 파티션 생성하는 방법(1편)

     LINUX  DISK 추가를 통한 파티션 생성하는 방법 [root@localhost ~]# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 80G 0 disk ├─sda1 8:1 0 4G 0 part [SWAP] └─sda2 8:2 0 76G 0 par..

    pinetreeday.tistory.com

     

    PS. 포스팅의 내용은 제 기준으로 작성한 것이기 때문에 참고해서 보시면 감사하겠습니다.

    포스팅 과정의 오류 및 오타 그리고 궁금한 점에 대해서는 댓글 남겨주세요.

    반응형

    댓글

Designed by Tistory.