ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • IBM SAVEVG,RESTVG 데이터 백업 복구방법(2)
    System of Infra/Unix System 2020. 7. 16. 14:53
    반응형

    AIX로고이미지

    IBM SAVEVG,RESTVG 데이터 백업 복구방법(2)

     

    IBM SAVEVG,RESTVG 데이터 백업 복구방법 (1)편에서 datavg를 savevg백업 후 restvg로 복구를 하는 작업을 했습니다. 이전의 글을 통해서 (1)번을 수행하고 오시면 됩니다.

    [시나리오]

    오늘은 다른 IP대역의 datavg를 백업 받은 뒤 또 다른 IP대역의 서버에 복구를 시키는 테스트를 진행하겠습니다.

     

    [root@test_svr1:/]# lspv
    hdisk0          00008492ef481bbc                    rootvg          active     
    hdisk1          00c5c6d7889dcd0e                    None                       
    ...(생략)                  
    hdisk12         00c5c6d72821b139                    migratevg       active

    -> 현재 test_svr1서버의 hdisk12에는 migratevg라는 데이터용 vg가 있습니다.

    [root@test_svr1:/]# ifconfig -a
    en3: flags=1e084863,480<UP,BROADCAST,NOTRAILERS,RUNNING,SIMPLEX,MULTICAST,GROUPRT,64BIT,CHECKSUM_OFFLOAD(ACTIVE),CHAIN>
    inet 10.50.1.206 netmask 0xffffff00 broadcast 10.50.1.255
    inet 10.50.1.208 netmask 0xffffff00 broadcast 10.50.1.255
    tcp_sendspace 262144 tcp_recvspace 262144 rfc1323 1

    -> 현재 test_svr1서버의 IP주소를 확인합니다. IP: 10.50.1.206

    [root@test_svr1:/]# bootinfo -s hdisk12
    71680

    -> 현재 test_svr1의 디스크 용량은 70GB의 용량을 가지고 있는 것을 확인할 수 있습니다.

    [root@test_svr1:/]# lsvg -l migratevg
    migratevg:
    LV NAME             TYPE       LPs     PPs     PVs  LV STATE      MOUNT POINT
    migrateora_lv       jfs2       5       5       1    open/syncd    /oracle_fs
    migratedb_lv        jfs2       6       6       1    open/syncd    /db_fs
    migratenfs_lv       jfs2       8       8       1    open/syncd    /nfs_fs
    loglv01             jfs2log    1       1       1    open/syncd    N/A

    ->  이번 테스트를 진행 하기 위해서 migratevg안에 lv를 3개 생성하였고 파일시스템 또한 테스트 용도로 3개를 생성 했습니다. lv: migrateora_lv, migratedb_lv, migratenfs_lv fs: /oracle_fs,  db_fs, nfs_fs

    [root@test_svr1:/]# lsvg migratevg
    VOLUME GROUP:       migratevg                VG IDENTIFIER:  00c5c6d700004c00000001734b0e6cf5
    VG STATE:           active                   PP SIZE:        512 megabyte(s)
    VG PERMISSION:      read/write               TOTAL PPs:      139 (71168 megabytes)
    MAX LVs:            512                      FREE PPs:       119 (60928 megabytes)
    LVs:                4                        USED PPs:       20 (10240 megabytes)
    OPEN LVs:           4                        QUORUM:         2 (Enabled)
    
    TOTAL PVs:          1                        VG DESCRIPTORS: 2
    STALE PVs:          0                        STALE PPs:      0
    ACTIVE PVs:         1                        AUTO ON:        yes
    MAX PPs per VG:     32768                    MAX PVs:        1024
    
    LTG size (Dynamic): 256 kilobyte(s)          AUTO SYNC:      no
    HOT SPARE:          no                       BB POLICY:      relocatable
    MIRROR POOL STRICT: off                                      
    PV RESTRICTION:     none                     INFINITE RETRY: no
    DISK BLOCK SIZE:    512                      CRITICAL VG:    no
    FS SYNC OPTION:     no

    -> 현재 lsvg rootvg의 명령어 호출을 통해서 migratevg의 PP SIZE를 512로 설정하여 생성 하였습니다

    [root@test_svr1:/]# df -tg *fs
    Filesystem    GB blocks      Used      Free %Used Mounted on
    /dev/migratedb_lv      4.00      0.00      4.00    1% /db_fs
    /dev/migratenfs_lv      5.00      0.17      4.83    4% /nfs_fs
    /dev/migrateora_lv      3.00      2.02      0.98   68% /oracle_fs

    ->  2GB, 3GB, 4GB의 용량의 파일시스템의 백업을 받도록 하겠습니다. 전에 글에서 사용률이 1%이하여서 사용률을 높히고 테스트 진행하겠습니다.

    [root@test_svr1:/]# savevg -f /migratevg_backup -i migratevg
    Creating information file for volume group migratevg.
    Creating list of files to back up.
    Backing up 188 files..
    
    188 of 188 files (100%)
    0512-038 savevg: Backup Completed Successfully.(성공)

    -> savevg 명령어를 이용해서 migratevg_backup이란 확장자명으로 migratevg를 백업 받았습니다. 확실히 사용률이 저번에 1%이하일 때 비해서 조금 시간이 소요되네요.

    [root@test_svr1:/]# du -sg /migratevg_backup
    1.47    /migratevg_backup

    -> df -tg 의  명령어로 봤을때 용량의 총합 보다 압축된 용량으로 파일백업이 되는것 같습니다.

    [root@test_svr2:/tmp/pinetree]# ifconfig -a
    en3: flags=1e084863,480<UP,BROADCAST,NOTRAILERS,RUNNING,SIMPLEX,MULTICAST,GROUPRT,64BIT,CHECKSUM_OFFLOAD(ACTIVE),CHAIN>
    inet 10.50.1.207 netmask 0xffffff00 broadcast 10.50.1.255
    tcp_sendspace 262144 tcp_recvspace 262144 rfc1323 1
    
    

    -> 타 서버에 백업한 migrate를 복구 시키기 위해 test_svr2의 IP주소를 확인 합니다. IP: 10.50.1.207

    [root@test_svr1:/]# ftp 10.50.1.207
    
    Connected to 10.50.1.207.
    220 test_svr2 FTP server (Version 4.2 Tue Nov 14 17:16:56 CST 2017) ready.
    
    Name (10.50.1.207:root): root
    331 Password required for root.
    Password:****
    230-Last unsuccessful login: Thu Jul 16 13:16:03 KST 2020 on ssh from 100.100.0.4
    230-Last login: Thu Jul 16 13:16:05 KST 2020 on /dev/pts/2 from 100.100.0.4
    230 User root logged in.
    ftp>

    -> 백업파일을 업로드 하기 위해 10.50.1.207 test_svr2 서버로 ftp접속을 시도 합니다. ftp로 접속이 된것을 확인된것을 확인할 수 있습니다.

    ftp> pwd
    257 "/tmp/pinetree" is current directory.
    ftp> bin
    200 Type set to I.
    ftp> hash
    Hash mark printing off.

    -> 업로드할 파일 위치 디렉토리를  /tmp/pinetree로 정하고 bin(전송모드), hash(진행률#)으로 설정해줍니다.

    ftp> put migratevg_backup
    #################################################
    ....
    #################################################
    226 Transfer complete.
    1574707200 bytes sent in 9.139 seconds (1.683e+05 Kbytes/s)
    local: migratevg_backup remote: migratevg_backup

    -> put 명령어를 통해서 파일 업로드를 합니다. 파일 업로드 후 전송이 된것을 확인 할 수 있습니다.

    [root@test_svr2:/tmp/pinetree]# ls -ltr
    -rw-r-----    1 root     system   1574707200 Jul 16 13:56 migratevg_backup
    
    [root@osk2:/tmp/pinetree]# du -sg /tmp/pinetree/migratevg_backup
    1.47    /tmp/pinetree/migratevg_backup

    -> test_svr2서버에서 전송이 제대로 됬는지 확인합니다. migratevg_backup파일이 /tmp/pinetree경로에 있고

    백업받았을 때의 용량 1.47로 동일합니다.

    [root@test_svr2:/]# lspv
    hdisk0          00008492ef481bbc                    rootvg          active     
    ...(생략)
    hdisk12        00c5c6d7282d8561                    rootvg          active     
    hdisk13        none                                None

    -> test_svr2서버에 hdisk13에 test_svr1에서 백업 받아온 migratevg_backup를 복구 시키도록 하겠습니다.

    [root@test_svr2:/tmp/pinetree]# restvg -q -f /tmp/pinetree/migratevg_backup hdisk13
    
    Will create the Volume Group:  migratevg
    Target Disks:  hdisk13
    Allocation Policy:
            Shrink Filesystems:    no
            Preserve Physical Partitions for each Logical Volume:  no
    
    0516-1254 /usr/sbin/mkvg: Changing the PVID in the ODM.
    migratevg
    migrateora_lv
    migratedb_lv
    migratenfs_lv
    loglv01
    
    New volume on /tmp/pinetree/migratevg_backup:
    Cluster size is 51200 bytes (100 blocks).
    The volume number is 1.
    
    The backup date is: Thu Jul 16 13:37:18 KST 2020
    Files are backed up by name.
    The user is root.
    
    x          14 ./tmp/vgdata/migratevg/image.info
    x          142 ./tmp/vgdata/vgdata.files24313888
    x          142 ./tmp/vgdata/vgdata.files
    x        2960 ./tmp/vgdata/migratevg/filesystems
    x        4696 ./tmp/vgdata/migratevg/migratevg.data
    x          509 ./tmp/vgdata/migratevg/backup.data
    ...(파일내용생략)
    The total size is 2345850636 bytes.
    The number of restored files is 188.

    -> migratevg에 있는 lv와 파일시스템의 정보를 복구하는 과정입니다. 명령어가 호출되면서 안에있는 파일 들을 해쉬로 다 긁어 양이 너무 많아 파일들의 과정은 생략했습니다.

    [root@test_svr2:/tmp/pinetree]# lspv
    hdisk0          00008492ef481bbc                    rootvg          active     
    ...(생략)
    hdisk12        00c5c6d7282d8561                    rootvg          active     
    hdisk13        00c5c6d7560e3356                    migratevg      active  

    ->  migratevg가 hdisk13에 import되면서 복구가 되었습니다.

    [root@test_svr2:/tmp/pinetree]# lsvg -l migratevg
    migratevg:
    LV NAME            TYPE      LPs    PPs    PVs  LV STATE      MOUNT POINT
    migrateora_lv      jfs2      6      6      1    open/syncd    /oracle_fs
    migratedb_lv        jfs2      8      8      1    open/syncd    /db_fs
    migratenfs_lv      jfs2      10      10      1    open/syncd    /nfs_fs
    loglv01            jfs2log    1      1      1    open/syncd    N/A

    -> 파일시스템도 auto로 마운트가 된것을 확인 할 수 있습니다. 

    [root@test_svr2:/tmp/pinetree]# df -tg | grep -i fs
    /dev/migratedb_lv      4.00      0.00      4.00    1% /db_fs
    /dev/migratenfs_lv      5.00      0.17      4.83    4% /nfs_fs
    /dev/migrateora_lv      3.00      2.02      0.98  68% /oracle_fs

    -> test_svr2서버에서도 데이터가 잘 쓰이는지 확인하고 용량또한 기존에 사용한 용량과 같습니다.

     

    2020/07/15 - [System and Cloud/Unix] - IBM SAVEVG,RESTVG 데이터 백업 복구방법

     

    IBM SAVEVG,RESTVG 데이터 백업 복구방법

    IBM SAVEVG,RESTVG 데이터 백업 복구방법 [root@test_svr1:/]# lspv hdisk0 00008492ef481bbc rootvg active hdisk1 00c5c6d788d2c92f None ...(생략) hdisk12 00c5c6d7282d8561 rootvg active hdisk13 00c5c..

    pinetreeday.tistory.com

     

    PS. 포스팅의 내용은 제 기준으로 작성한 것이기 때문에 참고해서 보시면 감사하겠습니다.

    포스팅 과정의 오류 및 오타 그리고 궁금한 점에 대해서는 댓글 남겨주세요.

    반응형

    댓글

Designed by Tistory.