ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • IBM AIX DUMP DEVICE 증설 및 FILE SYSTEM 증설 작업
    System of Infra/Unix System 2020. 4. 18. 13:45
    반응형

    AIX로고이미지

     

    IBM AIX DUMP DEVICE 증설 및 FILE SYSTEM  증설 작업

    [root@test_svr1:/]# sysdumpdev -e
    0453-041 Estimated dump size in bytes: 905214688

    -> 서버의 dumpdevice의 용량을 산정하게 되면 KB기준으로 905214688KB의 용량이 필요합니다.

    [root@test_svr1:/]# bc
    905214688/1024/1024
    863

    -> 863MB의 용량이 시스템에서 예상 사이즈로 나오게 됩니다. 참고로 KB이기 때문에 1024로 두 번에 걸쳐 나누었습니다.

    [root@test_svr1:/]# lsvg rootvg
    VOLUME GROUP:       rootvg                   VG IDENTIFIER:  000084920000d90000000167ef481c0d
    VG STATE:           active                   PP SIZE:        256 megabyte(s)
    VG PERMISSION:      read/write               TOTAL PPs:      319 (81664 megabytes)
    MAX LVs:            256                      FREE PPs:       140 (35840 megabytes)
    LVs:                13                       USED PPs:       179 (45824 megabytes)
    OPEN LVs:           12                       QUORUM:         2 (Enabled)
    TOTAL PVs:          1                        VG DESCRIPTORS: 2
    STALE PVs:          0                        STALE PPs:      0
    ACTIVE PVs:         1                        AUTO ON:        no
    MAX PPs per VG:     32512                                    
    MAX PPs per PV:     1016                     MAX PVs:        32
    LTG size (Dynamic): 256 kilobyte(s)          AUTO SYNC:      no
    HOT SPARE:          no                       BB POLICY:      relocatable
    PV RESTRICTION:     none                     INFINITE RETRY: no
    DISK BLOCK SIZE:    512                      CRITICAL VG:    no

    -> rootvg의 PP SIZE가 256MB로 산정이 되어 있습니다. 1개당 256MB라는 말입니다.

    [root@test_svr1:/]# lsvg -l rootvg | grep -i lg_dumplv
    lg_dumplv           sysdump    16      16      1    open/syncd    N/A

    -> 현재시스템에서는 lg_dumplv의 PP 개수가 16개가 있습니다.

    [root@test_svr1:/]# bc
    256*16
    4096

    -> 256*16의 계산을 통해서 현재 4GB정도의 덤프 디바이스의 용량을 산정하고 있습니다. 예상 용량보다 많다고 생각할 것입니다. 물론 프로세스나 로그파일들이 많이 생성된다면 용량은 더 올라가겠지만 테스트 환경에서 작업을 했기 때문에 어느 정도 넉넉한 용량의 산정을 하셔서 증설시켜주면 될 것 같습니다.

    [root@test_svr1:/]# smit rmlv
    LOGICAL VOLUME name [lg_dumplv]
    Command: failed        stdout: yes           stderr: no
    
    Before command completion, additional instructions may appear below.
    
    0516-1251 rmlv: Warning, cannot remove logical volume lg_dumplv.
           This logical volume is also used as the primary dump device.
           Reset the dump device and retry the command.

    -> 덤프디바이스의 용량이 부족하다는 에러 메시지가 호출됐다는 가정하에 작업을 위해 lg_dumplv를 삭제해보겠습니다. 하지만 현재 삭제가 되지 않는 메시지를 뿌리고 있습니다.

    [root@test_svr1:/]# sysdumpdev -l
    primary              /dev/lg_dumplv
    secondary            /dev/sysdumpnull
    copy directory       /var/adm/ras
    forced copy flag     TRUE
    always allow dump    TRUE
    dump compression     ON
    type of dump         fw-assisted
    full memory dump     disallow

    -> lg_dumplv가 primary로 설정되어 잡고 있기 때문에 잠시 null값으로 변경을 해주면 되겠습니다.

    [root@test_svr1:/]# sysdumpdev -P -p'/dev/sysdumpnull'
    primary              /dev/sysdumpnull
    secondary            /dev/sysdumpnull
    copy directory       /var/adm/ras
    forced copy flag     TRUE
    always allow dump    TRUE
    dump compression     ON
    type of dump         fw-assisted (suspend)
    full memory dump     disallow

    -> sysdumpnull이라는 명령어를 통해서 primary의 값을 sysdumpnull로 변경해 주었습니다.

    [root@test_svr1:/]# smit rmlv
    LOGICAL VOLUME name [lg_dumplv]
    
    Command: OK            stdout: yes           stderr: no
    Before command completion, additional instructions may appear below.
    rmlv: Logical volume lg_dumplv is removed.

    -> 좀전에는 삭제가 되지 않았지만 현재 삭제가 되는 모습을 볼 수 있습니다.

    [root@test_svr1:/]# smit mklv
    * VOLUME GROUP name [rootvg]
    Logical volume NAME [lg_dumplv]
    * VOLUME GROUP name rootvg
    * Number of LOGICAL PARTITIONS [1] 
    RANGE of physical volumes maximum

    -> lg_dumplv를 삭제하였으니 다시 생성을 해보도록 하겠습니다. 이름은 lg_dumplv, PP는 1개, 생성은 hdisk0, 타입은 sysdump의 형태로 생성을 해주었습니다.

    [root@test_svr1:/]# lsvg -l rootvg | grep -i lg_dumplv
    lg_dumplv           sysdump    1       1       1    closed/syncd  N/A

    -> lg_dumplv가 1PP로 생성이 된 모습입니다. 256MB밖에 되지 않겠죠? 하지만 상태를 보게 되면 closed/syncd의 상태로 보이게 됩니다. 아까 변경한 primary정책을 null값으로 지정했기 때문에 다시 lg_dumplv로 변경을 해줍니다.

    [root@test_svr1:/]# sysdumpdev -P -p'/dev/lg_dumplv'
    primary              /dev/lg_dumplv
    secondary            /dev/sysdumpnull
    copy directory      /var/adm/ras
    forced copy flag    TRUE
    always allow dump    TRUE
    dump compression    ON
    type of dump        fw-assisted
    full memory dump    disallow

    -> 다시 primary에 /dev/lg_dumplv로 변경된 모습을 볼 수 있습니다.

    [root@test_svr1:/]# lsvg -l rootvg | grep -i lg_dumplv
    lg_dumplv          sysdump    1      1      1    open/syncd    N/A

    -> lg_dumplv가 open/syncd가 된 모습을 볼 수 있습니다.

    [root@test_svr1:/]# extendlv lg_dumplv 17

    -> 기존의 lg_dump의 예상 용량은 863MB였습니다. 현재 256MB이기 때문에 5개가 되면 예상 용량보다 덤프 디바이스의 용량을 많이 가지고 있게 됩니다. 하지만 저는 시스템의 용량을 고려하여 처음보다 1개의 PP를 더 추가하여 16개에서 17개로 증설을 하도록 하겠습니다.

    [root@test_svr1:/]# lsvg -l rootvg | grep -i lg_dumplv
    lg_dumplv          sysdump    17      17      1    open/syncd    N/A

    -> 17개의 PP가 생성된것으로 볼 수 있습니다. 이것으로 덤프 디바이스의 삭제와 생성 용량 증설에 대한 내용이었습니다.

    [root@test_svr1:/]# df -tg
    Filesystem    GB blocks      Used      Free %Used Mounted on
    /dev/hd4          2.00      0.27      1.73  14% /
    /dev/hd2          5.00      3.93      1.07  79% /usr
    /dev/hd9var        5.00      0.29      4.71    6% /var

    -> 현재 파일 시스템의 용량들 상태 입니다. /=2GB, /usr=5GB, /var=5GB등등 파일시스템의 용량들을 증가시켜보도록 하겠습니다.

    [root@test_svr1:/]# lsvg rootvg | grep -i free*
    MAX LVs:            256                      FREE PPs:      139 (35584 megabytes)

    -> 현재 잔여의 free PP의 용량을 보고 얼마큼 늘려줄 수 있는지 판단을 할 수 있습니다. 현재 35GB 정도의 용량을 더 쓸 수 있습니다. /, /usr, /var 3개만 예시로 시스템에서  파일 시스템을 늘려보도록 하겠습니다.

    [root@test_svr1:/]# chfs -a size=5G /
    Filesystem size changed to 10485760
    
    [root@test_svr1:/]# chfs -a size=10G /usr
    Filesystem size changed to 20971520
    
    [root@test_svr1:/]# chfs -a size=10G /var
    Filesystem size changed to 20971520

    -> 명령어를 통해서 각각 5GB, 10GB, 10GB로 증설을 하였습니다.

    [root@test_svr1:/]# df -tg
    Filesystem    GB blocks      Used      Free %Used Mounted on
    /dev/hd4          5.00      0.28      4.72    6% /
    /dev/hd2          10.00      3.93      6.07  40% /usr
    /dev/hd9var      10.00      0.29      9.71    3% /var

    -> 기존의 파일 시스템보다 용량이 늘어난 것을 볼 수 있습니다. 그만큼 사용률은 더 감소하게 된 것을 볼 수 있습니다.

     

    PS. 포스팅의 내용은 제 기준으로 작성한 것이기 때문에 참고해서 보시면 감사하겠습니다.

    또한 맨텍 실습 교육을 통해 정리 후 포스팅한 글입니다.

    포스팅 과정의 오류 및 오타 그리고 궁금한 점에 대해서는 댓글 남겨주세요.

    반응형

    댓글

Designed by Tistory.