-
IBM AIX DUMP DEVICE 증설 및 FILE SYSTEM 증설 작업System of Infra/Unix System 2020. 4. 18. 13:45반응형
IBM AIX DUMP DEVICE 증설 및 FILE SYSTEM 증설 작업
[root@test_svr1:/]# sysdumpdev -e 0453-041 Estimated dump size in bytes: 905214688
-> 서버의 dumpdevice의 용량을 산정하게 되면 KB기준으로 905214688KB의 용량이 필요합니다.
[root@test_svr1:/]# bc 905214688/1024/1024 863
-> 863MB의 용량이 시스템에서 예상 사이즈로 나오게 됩니다. 참고로 KB이기 때문에 1024로 두 번에 걸쳐 나누었습니다.
[root@test_svr1:/]# lsvg rootvg VOLUME GROUP: rootvg VG IDENTIFIER: 000084920000d90000000167ef481c0d VG STATE: active PP SIZE: 256 megabyte(s) VG PERMISSION: read/write TOTAL PPs: 319 (81664 megabytes) MAX LVs: 256 FREE PPs: 140 (35840 megabytes) LVs: 13 USED PPs: 179 (45824 megabytes) OPEN LVs: 12 QUORUM: 2 (Enabled) TOTAL PVs: 1 VG DESCRIPTORS: 2 STALE PVs: 0 STALE PPs: 0 ACTIVE PVs: 1 AUTO ON: no MAX PPs per VG: 32512 MAX PPs per PV: 1016 MAX PVs: 32 LTG size (Dynamic): 256 kilobyte(s) AUTO SYNC: no HOT SPARE: no BB POLICY: relocatable PV RESTRICTION: none INFINITE RETRY: no DISK BLOCK SIZE: 512 CRITICAL VG: no
-> rootvg의 PP SIZE가 256MB로 산정이 되어 있습니다. 1개당 256MB라는 말입니다.
[root@test_svr1:/]# lsvg -l rootvg | grep -i lg_dumplv lg_dumplv sysdump 16 16 1 open/syncd N/A
-> 현재시스템에서는 lg_dumplv의 PP 개수가 16개가 있습니다.
[root@test_svr1:/]# bc 256*16 4096
-> 256*16의 계산을 통해서 현재 4GB정도의 덤프 디바이스의 용량을 산정하고 있습니다. 예상 용량보다 많다고 생각할 것입니다. 물론 프로세스나 로그파일들이 많이 생성된다면 용량은 더 올라가겠지만 테스트 환경에서 작업을 했기 때문에 어느 정도 넉넉한 용량의 산정을 하셔서 증설시켜주면 될 것 같습니다.
[root@test_svr1:/]# smit rmlv LOGICAL VOLUME name [lg_dumplv] Command: failed stdout: yes stderr: no Before command completion, additional instructions may appear below. 0516-1251 rmlv: Warning, cannot remove logical volume lg_dumplv. This logical volume is also used as the primary dump device. Reset the dump device and retry the command.
-> 덤프디바이스의 용량이 부족하다는 에러 메시지가 호출됐다는 가정하에 작업을 위해 lg_dumplv를 삭제해보겠습니다. 하지만 현재 삭제가 되지 않는 메시지를 뿌리고 있습니다.
[root@test_svr1:/]# sysdumpdev -l primary /dev/lg_dumplv secondary /dev/sysdumpnull copy directory /var/adm/ras forced copy flag TRUE always allow dump TRUE dump compression ON type of dump fw-assisted full memory dump disallow
-> lg_dumplv가 primary로 설정되어 잡고 있기 때문에 잠시 null값으로 변경을 해주면 되겠습니다.
[root@test_svr1:/]# sysdumpdev -P -p'/dev/sysdumpnull' primary /dev/sysdumpnull secondary /dev/sysdumpnull copy directory /var/adm/ras forced copy flag TRUE always allow dump TRUE dump compression ON type of dump fw-assisted (suspend) full memory dump disallow
-> sysdumpnull이라는 명령어를 통해서 primary의 값을 sysdumpnull로 변경해 주었습니다.
[root@test_svr1:/]# smit rmlv LOGICAL VOLUME name [lg_dumplv] Command: OK stdout: yes stderr: no Before command completion, additional instructions may appear below. rmlv: Logical volume lg_dumplv is removed.
-> 좀전에는 삭제가 되지 않았지만 현재 삭제가 되는 모습을 볼 수 있습니다.
[root@test_svr1:/]# smit mklv * VOLUME GROUP name [rootvg] Logical volume NAME [lg_dumplv] * VOLUME GROUP name rootvg * Number of LOGICAL PARTITIONS [1] RANGE of physical volumes maximum
-> lg_dumplv를 삭제하였으니 다시 생성을 해보도록 하겠습니다. 이름은 lg_dumplv, PP는 1개, 생성은 hdisk0, 타입은 sysdump의 형태로 생성을 해주었습니다.
[root@test_svr1:/]# lsvg -l rootvg | grep -i lg_dumplv lg_dumplv sysdump 1 1 1 closed/syncd N/A
-> lg_dumplv가 1PP로 생성이 된 모습입니다. 256MB밖에 되지 않겠죠? 하지만 상태를 보게 되면 closed/syncd의 상태로 보이게 됩니다. 아까 변경한 primary정책을 null값으로 지정했기 때문에 다시 lg_dumplv로 변경을 해줍니다.
[root@test_svr1:/]# sysdumpdev -P -p'/dev/lg_dumplv' primary /dev/lg_dumplv secondary /dev/sysdumpnull copy directory /var/adm/ras forced copy flag TRUE always allow dump TRUE dump compression ON type of dump fw-assisted full memory dump disallow
-> 다시 primary에 /dev/lg_dumplv로 변경된 모습을 볼 수 있습니다.
[root@test_svr1:/]# lsvg -l rootvg | grep -i lg_dumplv lg_dumplv sysdump 1 1 1 open/syncd N/A
-> lg_dumplv가 open/syncd가 된 모습을 볼 수 있습니다.
[root@test_svr1:/]# extendlv lg_dumplv 17
-> 기존의 lg_dump의 예상 용량은 863MB였습니다. 현재 256MB이기 때문에 5개가 되면 예상 용량보다 덤프 디바이스의 용량을 많이 가지고 있게 됩니다. 하지만 저는 시스템의 용량을 고려하여 처음보다 1개의 PP를 더 추가하여 16개에서 17개로 증설을 하도록 하겠습니다.
[root@test_svr1:/]# lsvg -l rootvg | grep -i lg_dumplv lg_dumplv sysdump 17 17 1 open/syncd N/A
-> 17개의 PP가 생성된것으로 볼 수 있습니다. 이것으로 덤프 디바이스의 삭제와 생성 용량 증설에 대한 내용이었습니다.
[root@test_svr1:/]# df -tg Filesystem GB blocks Used Free %Used Mounted on /dev/hd4 2.00 0.27 1.73 14% / /dev/hd2 5.00 3.93 1.07 79% /usr /dev/hd9var 5.00 0.29 4.71 6% /var
-> 현재 파일 시스템의 용량들 상태 입니다. /=2GB, /usr=5GB, /var=5GB등등 파일시스템의 용량들을 증가시켜보도록 하겠습니다.
[root@test_svr1:/]# lsvg rootvg | grep -i free* MAX LVs: 256 FREE PPs: 139 (35584 megabytes)
-> 현재 잔여의 free PP의 용량을 보고 얼마큼 늘려줄 수 있는지 판단을 할 수 있습니다. 현재 35GB 정도의 용량을 더 쓸 수 있습니다. /, /usr, /var 3개만 예시로 시스템에서 파일 시스템을 늘려보도록 하겠습니다.
[root@test_svr1:/]# chfs -a size=5G / Filesystem size changed to 10485760 [root@test_svr1:/]# chfs -a size=10G /usr Filesystem size changed to 20971520 [root@test_svr1:/]# chfs -a size=10G /var Filesystem size changed to 20971520
-> 명령어를 통해서 각각 5GB, 10GB, 10GB로 증설을 하였습니다.
[root@test_svr1:/]# df -tg Filesystem GB blocks Used Free %Used Mounted on /dev/hd4 5.00 0.28 4.72 6% / /dev/hd2 10.00 3.93 6.07 40% /usr /dev/hd9var 10.00 0.29 9.71 3% /var
-> 기존의 파일 시스템보다 용량이 늘어난 것을 볼 수 있습니다. 그만큼 사용률은 더 감소하게 된 것을 볼 수 있습니다.
PS. 포스팅의 내용은 제 기준으로 작성한 것이기 때문에 참고해서 보시면 감사하겠습니다.
또한 맨텍 실습 교육을 통해 정리 후 포스팅한 글입니다.
포스팅 과정의 오류 및 오타 그리고 궁금한 점에 대해서는 댓글 남겨주세요.
반응형'System of Infra > Unix System' 카테고리의 다른 글
IBM AIX NFS mount 구성 방법 (0) 2020.04.21 IBM AIX SCP, FTP 사용 방법 (2) 2020.04.20 IBM AIX mirrorvg ALT_DISK 복제하는 작업 (0) 2020.04.15 IBM AIX 유저,그룹생성 및 권한변경 작업 (0) 2020.04.13 IBM AIX ALT_DISK생성 작업 (0) 2020.04.13