-
IBM SAVEVG,RESTVG 데이터 백업 복구방법(3)System of Infra/Unix System 2020. 7. 21. 21:13728x90반응형
IBM SAVEVG, RESTVG 데이터 백업 복구방법(3)
IBM SAVEVG, RESTVG 데이터 백업 복구방법 (2) 편에 이어서 또 다른 테스트를 진행하겠습니다.
[시나리오]
한개의 디스크에 DATVG를 만들어서 백업 후 복구를 했지만 extendvg의 형태로 펼쳐져 있는 상태에서 백업 후 복구가 가능한지 테스트하도록 하겠습니다.
[root@test_svr1:/]# lspv hdisk0 00008492ef481bbc rootvg active ...(생략) hdisk9 00c5c6d7889fe3e2 testvg active hdisk10 00c5c6d7889fe401 None ...(생략) hdisk12 none None hdisk13 none None
-> 우선 hdisk9번에 testvg라는 볼륨 그룹을 임시로 생성해주었습니다. 생성 후 active가 된 것을 확인할 수 있었습니다.
[root@test_svr1:/]# df -tg | grep -i testlv* Filesystem GB blocks Used Free %Used Mounted on /dev/test_lv1 3.00 0.00 3.00 1% /testlv_fs /dev/test_lv2 3.00 0.00 3.00 1% /testlv2_fs /dev/test_lv3 3.00 0.00 3.00 1% /testlv3_fs
-> testvg안에 LV*3EA와 testlv_fs*3EA를 임시로 생성해주었습니다.
[root@test_svr1:/]# extendvg testvg hdisk10 [root@test_svr1:/]# lspv hdisk0 00008492ef481bbc rootvg active ...(생략) hdisk9 00c5c6d7889fe3e2 testvg active hdisk10 00c5c6d7889fe401 testvg active ...(생략) hdisk12 none None hdisk13 none None
-> testvg를 extendvg로 hdisk10번까지 용량을 늘려주도록 합니다.
[root@test_svr1:/]# lspv -l hdisk9 hdisk9: LV NAME LPs PPs DISTRIBUTION MOUNT POINT test_lv1 6 6 00..06..00..00..00 /testlv_fs test_lv2 6 6 00..06..00..00..00 /testlv2_fs test_lv3 6 6 00..06..00..00..00 /testlv3_fs loglv01 1 1 00..01..00..00..00 N/A [root@test_svr1:/]# lspv -l hdisk10 hdisk10: LV NAME LPs PPs DISTRIBUTION MOUNT POINT guestlv 1 1 00..01..00..00..00 /guestlv_fs guestlv1 1 1 00..01..00..00..00 /guestlv_fs2 guestlv2 1 1 00..01..00..00..00 /guestlv_fs3
-> hdisk9번과 hdisk10번에 각자의 lv와 fs가 있다고 가정하고 싶어서 다르게 생성을 해주었습니다.
[root@test_svr1:/]# df -tg | grep -i fs /dev/test_lv1 3.00 0.00 3.00 1% /testlv_fs /dev/test_lv2 3.00 0.00 3.00 1% /testlv2_fs /dev/test_lv3 3.00 0.00 3.00 1% /testlv3_fs /dev/guestlv 0.50 0.00 0.50 1% /guestlv_fs /dev/guestlv1 0.50 0.00 0.50 1% /guestlv_fs2 /dev/guestlv2 0.50 0.00 0.50 1% /guestlv_fs3
-> 생성된 파일시스템을 확인할 수 있습니다.(testlv_fs, testlv2_fs... 등)
[root@test_svr1:/]# savevg -f /tmp/pinetree/testvg_backup -i testvg Creating information file for volume group testvg. Creating list of files to back up. Backing up 48 files 48 of 48 files (100%) 0512-038 savevg: Backup Completed Successfully.
-> /tmp/pinetree 경로에 testvg_backup이라는 이름으로 백업을 생성을 해줍니다.
[root@test_svr1:/tmp/pinetree]# ls -ltr -rw-r--r-- 1 root system 51200 Jul 21 19:37 testvg_backup [root@osk1:/tmp/pinetree]# du -sk /tmp/pinetree/testvg_backup 52 /tmp/pinetree/testvg_backup
-> /tmp/pinetree라는 경로에 testvg_backup이 생성되었고 용량은 52KB 정도가 됩니다.
[root@test_svr1:/]# lsvg -l testvg testvg: LV NAME TYPE LPs PPs PVs LV STATE MOUNT POINT test_lv1 jfs2 6 6 1 closed/syncd /testlv_fs test_lv2 jfs2 6 6 1 closed/syncd /testlv2_fs test_lv3 jfs2 6 6 1 closed/syncd /testlv3_fs loglv01 jfs2log 1 1 1 closed/syncd N/A guestlv jfs2 1 1 1 closed/syncd /guestlv_fs guestlv1 jfs2 1 1 1 closed/syncd /guestlv_fs2 guestlv2 jfs2 1 1 1 closed/syncd /guestlv_fs3
-> restvg로 복구하기 위해서 해당 vg의 파일 시스템을 모두 umount 시키도록 합니다.
[root@test_svr1:/]# lspv | grep -i active hdisk0 00008492ef481bbc rootvg active hdisk9 00c5c6d7889fe3e2 testvg active hdisk10 00c5c6d7889fe401 testvg active
-> testvg가 active인 상태이기 때문에 비활성화시켜주도록 합니다.
[root@test_svr1:/]# varyoffvg testvg [root@test_svr1:/]# lspv hdisk0 00008492ef481bbc rootvg active ...(생략) hdisk9 00c5c6d7889fe3e2 testvg hdisk10 00c5c6d7889fe401 testvg
-> testvg를 varyoffvg 해주도록 합니다.
[root@test_svr1:/]# exportvg testvg [root@test_svr1:/]# lspv hdisk0 00008492ef481bbc rootvg active ...(생략) hdisk9 00c5c6d7889fe3e2 None hdisk10 00c5c6d7889fe401 None ...(생략) hdisk12 none None hdisk13 none None
-> testvg를 exportvg 해주도록 합니다. 또한 hdisk12와 hdisk13에 복구를 하기 위해서 같이 확인을 해주었습니다.
[root@test_svr1:/]#smit restvg Remake a Volume Group Type or select values in entry fields. Press Enter AFTER making all desired changes. [Entry Fields] * Restore DEVICE or FILE [/tmp/pinetree/testvg_backup] SHRINK the filesystems? no Recreate logical volumes and filesystems only? no PHYSICAL VOLUME names [hdisk12 hdisk13] (Leave blank to use the PHYSICAL VOLUMES listed in the vgname.data file in the backup image) Use existing MAP files? yes ...(이하 생략)
-> (1), (2)에서 명령어로 진행했기 때문에 smit으로 진행을 해보도록 하겠습니다. 경로를 /tmp/pinetree/testv_backup으로 하고 복구를 하려고 하는 디스크를 hdisk12 hdisk13으로 지정합니다.
Will create the Volume Group: testvg Target Disks: hdisk12 hdisk13 Allocation Policy: Shrink Filesystems: no Preserve Physical Partitions for each Logical Volume: no 0516-1254 /usr/sbin/mkvg: Changing the PVID in the ODM. 0516-1254 /usr/sbin/mkvg: Changing the PVID in the ODM. testvg test_lv1 test_lv2 test_lv3 loglv01 guestlv guestlv1 guestlv2 (이하... 생략) New volume on /tmp/pinetree/testvg_backup: Cluster size is 51200 bytes (100 blocks). The volume number is 1. The total size is 12287 bytes. The number of restored files is 48.
-> 진행이 완료되어 복구가 성공적으로 됐다고 프롬트 명령어가 떨어지게 됩니다.
[root@test_svr1:/]# lspv hdisk0 00008492ef481bbc rootvg active ...(생략) hdisk9 00c5c6d771223400 None hdisk10 00c5c6d77122663c None ...(생략) hdisk12 00c5c6d77129301f testvg active hdisk13 00c5c6d77129305a testvg active
-> hdisk12와 hdisk13에 testvg가 import 되어 생성된 것을 확인하였습니다.
[root@test_svr1:/tmp/pinetree]# lsvg -l testvg testvg: LV NAME TYPE LPs PPs PVs LV STATE MOUNT POINT test_lv1 jfs2 6 6 1 open/syncd /testlv_fs test_lv2 jfs2 6 6 1 open/syncd /testlv2_fs test_lv3 jfs2 6 6 1 open/syncd /testlv3_fs loglv01 jfs2log 1 1 1 open/syncd N/A guestlv jfs2 1 1 1 open/syncd /guestlv_fs guestlv1 jfs2 1 1 1 open/syncd /guestlv_fs2 guestlv2 jfs2 1 1 1 open/syncd /guestlv_fs3
-> 해당 볼륨 그룹 안에 LV와 파일 시스템도 동일하게 존재하는지 확인하였습니다.
2020/07/16 - [System and Cloud/Unix] - IBM SAVEVG, RESTVG 데이터 백업 복구방법(2)
2020.07.15 - [System and Cloud/Unix] - IBM SAVEVG,RESTVG 데이터 백업 복구방법
PS. 포스팅의 내용은 제 기준으로 작성한 것이기 때문에 참고해서 보시면 감사하겠습니다.
포스팅 과정의 오류 및 오타 그리고 궁금한 점에 대해서는 댓글 남겨주세요.
728x90반응형'System of Infra > Unix System' 카테고리의 다른 글
IBM HMC Command 명령어로 start/stop/restart (0) 2020.09.04 IBM HMC Command 명령어로 terminal 창 종료 (0) 2020.09.04 IBM SAVEVG,RESTVG 데이터 백업 복구방법(2) (0) 2020.07.16 IBM SAVEVG,RESTVG 데이터 백업 복구방법 (0) 2020.07.15 IBM AIX errpt 명령어 분석하기 (2) 2020.06.12