ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • IBM SAVEVG,RESTVG 데이터 백업 복구방법(3)
    System of Infra/Unix System 2020. 7. 21. 21:13
    반응형

    AIX이미지로고

    IBM SAVEVG, RESTVG 데이터 백업 복구방법(3)

    IBM SAVEVG, RESTVG 데이터 백업 복구방법 (2) 편에 이어서 또 다른 테스트를 진행하겠습니다.

     

    [시나리오]

    한개의 디스크에 DATVG를 만들어서 백업 후 복구를 했지만 extendvg의 형태로 펼쳐져 있는 상태에서 백업 후 복구가 가능한지 테스트하도록 하겠습니다.

     

    [root@test_svr1:/]# lspv
    hdisk0          00008492ef481bbc                    rootvg          active     
    ...(생략)              
    hdisk9          00c5c6d7889fe3e2                    testvg          active     
    hdisk10        00c5c6d7889fe401                    None
    ...(생략)
    hdisk12 none None
    hdisk13 none None

    -> 우선 hdisk9번에 testvg라는 볼륨 그룹을 임시로 생성해주었습니다. 생성 후 active가 된 것을 확인할 수 있었습니다.

    [root@test_svr1:/]# df -tg  | grep -i testlv*
    Filesystem    GB blocks      Used      Free %Used Mounted on
    /dev/test_lv1      3.00      0.00      3.00    1% /testlv_fs
    /dev/test_lv2      3.00      0.00      3.00    1% /testlv2_fs
    /dev/test_lv3      3.00      0.00      3.00    1% /testlv3_fs

    -> testvg안에 LV*3EA와 testlv_fs*3EA를 임시로 생성해주었습니다.

    [root@test_svr1:/]# extendvg testvg hdisk10
    
    [root@test_svr1:/]# lspv
    hdisk0          00008492ef481bbc                    rootvg          active     
    ...(생략)      
    hdisk9          00c5c6d7889fe3e2                    testvg          active     
    hdisk10        00c5c6d7889fe401                    testvg          active
    ...(생략)
    hdisk12 none None
    hdisk13 none None

    -> testvg를 extendvg로 hdisk10번까지 용량을 늘려주도록 합니다.

    [root@test_svr1:/]# lspv -l hdisk9
    hdisk9:
    LV NAME               LPs     PPs     DISTRIBUTION          MOUNT POINT
    test_lv1              6       6       00..06..00..00..00    /testlv_fs
    test_lv2              6       6       00..06..00..00..00    /testlv2_fs
    test_lv3              6       6       00..06..00..00..00    /testlv3_fs
    loglv01               1       1       00..01..00..00..00    N/A
    
    [root@test_svr1:/]# lspv -l hdisk10
    hdisk10:
    LV NAME               LPs     PPs     DISTRIBUTION          MOUNT POINT
    guestlv               1       1       00..01..00..00..00    /guestlv_fs
    guestlv1              1       1       00..01..00..00..00    /guestlv_fs2
    guestlv2              1       1       00..01..00..00..00    /guestlv_fs3

    -> hdisk9번과 hdisk10번에 각자의 lv와 fs가 있다고 가정하고 싶어서 다르게 생성을 해주었습니다.

    [root@test_svr1:/]# df -tg | grep -i fs
    /dev/test_lv1      3.00      0.00      3.00    1% /testlv_fs
    /dev/test_lv2      3.00      0.00      3.00    1% /testlv2_fs
    /dev/test_lv3      3.00      0.00      3.00    1% /testlv3_fs
    /dev/guestlv       0.50      0.00      0.50    1% /guestlv_fs
    /dev/guestlv1      0.50      0.00      0.50    1% /guestlv_fs2
    /dev/guestlv2      0.50      0.00      0.50    1% /guestlv_fs3

    -> 생성된 파일시스템을 확인할 수 있습니다.(testlv_fs, testlv2_fs... 등)

    [root@test_svr1:/]# savevg -f /tmp/pinetree/testvg_backup -i testvg
    Creating information file for volume group testvg.
    Creating list of files to back up.
    Backing up 48 files
    
    48 of 48 files (100%)
    0512-038 savevg: Backup Completed Successfully.

    -> /tmp/pinetree 경로에 testvg_backup이라는 이름으로 백업을 생성을 해줍니다.

    [root@test_svr1:/tmp/pinetree]# ls -ltr
    -rw-r--r--    1 root     system        51200 Jul 21 19:37 testvg_backup
    
    [root@osk1:/tmp/pinetree]# du -sk /tmp/pinetree/testvg_backup
    52      /tmp/pinetree/testvg_backup

    -> /tmp/pinetree라는 경로에 testvg_backup이 생성되었고 용량은 52KB 정도가 됩니다.

    [root@test_svr1:/]# lsvg -l testvg
    testvg:
    LV NAME             TYPE       LPs     PPs     PVs  LV STATE      MOUNT POINT
    test_lv1            jfs2       6       6       1    closed/syncd  /testlv_fs
    test_lv2            jfs2       6       6       1    closed/syncd  /testlv2_fs
    test_lv3            jfs2       6       6       1    closed/syncd  /testlv3_fs
    loglv01             jfs2log    1       1       1    closed/syncd  N/A
    guestlv             jfs2       1       1       1    closed/syncd  /guestlv_fs
    guestlv1            jfs2       1       1       1    closed/syncd  /guestlv_fs2
    guestlv2            jfs2       1       1       1    closed/syncd  /guestlv_fs3

    -> restvg로 복구하기 위해서 해당 vg의 파일 시스템을 모두 umount 시키도록 합니다.

    [root@test_svr1:/]# lspv | grep -i active
    hdisk0          00008492ef481bbc                    rootvg          active     
    hdisk9          00c5c6d7889fe3e2                    testvg          active     
    hdisk10         00c5c6d7889fe401                    testvg          active

    -> testvg가 active인 상태이기 때문에 비활성화시켜주도록 합니다.

    [root@test_svr1:/]# varyoffvg testvg
    
    [root@test_svr1:/]# lspv
    hdisk0          00008492ef481bbc                    rootvg          active     
    ...(생략)                   
    hdisk9          00c5c6d7889fe3e2                    testvg                     
    hdisk10         00c5c6d7889fe401                    testvg

    -> testvg를 varyoffvg 해주도록 합니다.

    [root@test_svr1:/]# exportvg testvg
    
    [root@test_svr1:/]# lspv
    hdisk0          00008492ef481bbc                    rootvg          active     
    ...(생략)                 
    hdisk9          00c5c6d7889fe3e2                    None                       
    hdisk10         00c5c6d7889fe401                    None       
    ...(생략)
    hdisk12 none None
    hdisk13 none None            

    -> testvg를 exportvg 해주도록 합니다. 또한 hdisk12와 hdisk13에 복구를 하기 위해서 같이 확인을 해주었습니다.

    [root@test_svr1:/]#smit restvg
    
    Remake a Volume Group
    Type or select values in entry fields.
    Press Enter AFTER making all desired changes.
    
    
    
    [Entry Fields]
    * Restore DEVICE or FILE [/tmp/pinetree/testvg_backup]
      SHRINK the filesystems? no
      Recreate logical volumes and filesystems only? no
      PHYSICAL VOLUME names [hdisk12 hdisk13]
      (Leave blank to use the PHYSICAL VOLUMES listed
      in the vgname.data file in the backup image)
      Use existing MAP files? yes
    ...(이하 생략)

    -> (1), (2)에서 명령어로 진행했기 때문에 smit으로 진행을 해보도록 하겠습니다. 경로를 /tmp/pinetree/testv_backup으로 하고 복구를 하려고 하는 디스크를 hdisk12 hdisk13으로 지정합니다.

    Will create the Volume Group: testvg
    Target Disks: hdisk12 hdisk13
    Allocation Policy:
    Shrink Filesystems: no
    Preserve Physical Partitions for each Logical Volume: no
    
    0516-1254 /usr/sbin/mkvg: Changing the PVID in the ODM.
    0516-1254 /usr/sbin/mkvg: Changing the PVID in the ODM.
    
    testvg
    test_lv1
    test_lv2
    test_lv3
    loglv01
    guestlv
    guestlv1
    guestlv2
    (이하... 생략)
    
    New volume on /tmp/pinetree/testvg_backup:
    Cluster size is 51200 bytes (100 blocks).
    The volume number is 1.
    
    The total size is 12287 bytes.
    The number of restored files is 48.

    -> 진행이 완료되어 복구가 성공적으로 됐다고 프롬트 명령어가 떨어지게 됩니다.

    [root@test_svr1:/]# lspv
    hdisk0 00008492ef481bbc rootvg active
    ...(생략)
    hdisk9 00c5c6d771223400 None
    hdisk10 00c5c6d77122663c None
    ...(생략)
    hdisk12 00c5c6d77129301f testvg active
    hdisk13 00c5c6d77129305a testvg active

    -> hdisk12와 hdisk13에 testvg가 import 되어 생성된 것을 확인하였습니다.

    [root@test_svr1:/tmp/pinetree]# lsvg -l testvg
    testvg:
    LV NAME TYPE LPs PPs PVs LV STATE MOUNT POINT
    test_lv1 jfs2 6 6 1 open/syncd /testlv_fs
    test_lv2 jfs2 6 6 1 open/syncd /testlv2_fs
    test_lv3 jfs2 6 6 1 open/syncd /testlv3_fs
    loglv01 jfs2log 1 1 1 open/syncd N/A
    guestlv jfs2 1 1 1 open/syncd /guestlv_fs
    guestlv1 jfs2 1 1 1 open/syncd /guestlv_fs2
    guestlv2 jfs2 1 1 1 open/syncd /guestlv_fs3

    -> 해당 볼륨 그룹 안에 LV와 파일 시스템도 동일하게 존재하는지 확인하였습니다.

     

    2020/07/16 - [System and Cloud/Unix] - IBM SAVEVG, RESTVG 데이터 백업 복구방법(2)

     

    IBM SAVEVG,RESTVG 데이터 백업 복구방법(2)

    IBM SAVEVG,RESTVG 데이터 백업 복구방법(2) IBM SAVEVG,RESTVG 데이터 백업 복구방법 (1)편에서 datavg를 savevg백업 후 restvg로 복구를 하는 작업을 했습니다. 이전의 글을 통해서 (1)번을 수행하고 오시..

    pinetreeday.tistory.com

    2020.07.15 - [System and Cloud/Unix] - IBM SAVEVG,RESTVG 데이터 백업 복구방법

     

    IBM SAVEVG,RESTVG 데이터 백업 복구방법

    IBM SAVEVG,RESTVG 데이터 백업 복구방법 [root@test_svr1:/]# lspv hdisk0 00008492ef481bbc rootvg active hdisk1 00c5c6d788d2c92f None ...(생략) hdisk12 00c5c6d7282d8561 rootvg active hdisk13 00c5c..

    pinetreeday.tistory.com

    PS. 포스팅의 내용은 제 기준으로 작성한 것이기 때문에 참고해서 보시면 감사하겠습니다.

    포스팅 과정의 오류 및 오타 그리고 궁금한 점에 대해서는 댓글 남겨주세요.

     

     

    반응형

    댓글

Designed by Tistory.