-
IBM SAVEVG,RESTVG 데이터 백업 복구방법(2)System of Infra/Unix System 2020. 7. 16. 14:53728x90반응형
IBM SAVEVG,RESTVG 데이터 백업 복구방법(2)
IBM SAVEVG,RESTVG 데이터 백업 복구방법 (1)편에서 datavg를 savevg백업 후 restvg로 복구를 하는 작업을 했습니다. 이전의 글을 통해서 (1)번을 수행하고 오시면 됩니다.
[시나리오]
오늘은 다른 IP대역의 datavg를 백업 받은 뒤 또 다른 IP대역의 서버에 복구를 시키는 테스트를 진행하겠습니다.
[root@test_svr1:/]# lspv hdisk0 00008492ef481bbc rootvg active hdisk1 00c5c6d7889dcd0e None ...(생략) hdisk12 00c5c6d72821b139 migratevg active
-> 현재 test_svr1서버의 hdisk12에는 migratevg라는 데이터용 vg가 있습니다.
[root@test_svr1:/]# ifconfig -a en3: flags=1e084863,480<UP,BROADCAST,NOTRAILERS,RUNNING,SIMPLEX,MULTICAST,GROUPRT,64BIT,CHECKSUM_OFFLOAD(ACTIVE),CHAIN> inet 10.50.1.206 netmask 0xffffff00 broadcast 10.50.1.255 inet 10.50.1.208 netmask 0xffffff00 broadcast 10.50.1.255 tcp_sendspace 262144 tcp_recvspace 262144 rfc1323 1
-> 현재 test_svr1서버의 IP주소를 확인합니다. IP: 10.50.1.206
[root@test_svr1:/]# bootinfo -s hdisk12 71680
-> 현재 test_svr1의 디스크 용량은 70GB의 용량을 가지고 있는 것을 확인할 수 있습니다.
[root@test_svr1:/]# lsvg -l migratevg migratevg: LV NAME TYPE LPs PPs PVs LV STATE MOUNT POINT migrateora_lv jfs2 5 5 1 open/syncd /oracle_fs migratedb_lv jfs2 6 6 1 open/syncd /db_fs migratenfs_lv jfs2 8 8 1 open/syncd /nfs_fs loglv01 jfs2log 1 1 1 open/syncd N/A
-> 이번 테스트를 진행 하기 위해서 migratevg안에 lv를 3개 생성하였고 파일시스템 또한 테스트 용도로 3개를 생성 했습니다. lv: migrateora_lv, migratedb_lv, migratenfs_lv fs: /oracle_fs, db_fs, nfs_fs
[root@test_svr1:/]# lsvg migratevg VOLUME GROUP: migratevg VG IDENTIFIER: 00c5c6d700004c00000001734b0e6cf5 VG STATE: active PP SIZE: 512 megabyte(s) VG PERMISSION: read/write TOTAL PPs: 139 (71168 megabytes) MAX LVs: 512 FREE PPs: 119 (60928 megabytes) LVs: 4 USED PPs: 20 (10240 megabytes) OPEN LVs: 4 QUORUM: 2 (Enabled) TOTAL PVs: 1 VG DESCRIPTORS: 2 STALE PVs: 0 STALE PPs: 0 ACTIVE PVs: 1 AUTO ON: yes MAX PPs per VG: 32768 MAX PVs: 1024 LTG size (Dynamic): 256 kilobyte(s) AUTO SYNC: no HOT SPARE: no BB POLICY: relocatable MIRROR POOL STRICT: off PV RESTRICTION: none INFINITE RETRY: no DISK BLOCK SIZE: 512 CRITICAL VG: no FS SYNC OPTION: no
-> 현재 lsvg rootvg의 명령어 호출을 통해서 migratevg의 PP SIZE를 512로 설정하여 생성 하였습니다
[root@test_svr1:/]# df -tg *fs Filesystem GB blocks Used Free %Used Mounted on /dev/migratedb_lv 4.00 0.00 4.00 1% /db_fs /dev/migratenfs_lv 5.00 0.17 4.83 4% /nfs_fs /dev/migrateora_lv 3.00 2.02 0.98 68% /oracle_fs
-> 2GB, 3GB, 4GB의 용량의 파일시스템의 백업을 받도록 하겠습니다. 전에 글에서 사용률이 1%이하여서 사용률을 높히고 테스트 진행하겠습니다.
[root@test_svr1:/]# savevg -f /migratevg_backup -i migratevg Creating information file for volume group migratevg. Creating list of files to back up. Backing up 188 files.. 188 of 188 files (100%) 0512-038 savevg: Backup Completed Successfully.(성공)
-> savevg 명령어를 이용해서 migratevg_backup이란 확장자명으로 migratevg를 백업 받았습니다. 확실히 사용률이 저번에 1%이하일 때 비해서 조금 시간이 소요되네요.
[root@test_svr1:/]# du -sg /migratevg_backup 1.47 /migratevg_backup
-> df -tg 의 명령어로 봤을때 용량의 총합 보다 압축된 용량으로 파일백업이 되는것 같습니다.
[root@test_svr2:/tmp/pinetree]# ifconfig -a en3: flags=1e084863,480<UP,BROADCAST,NOTRAILERS,RUNNING,SIMPLEX,MULTICAST,GROUPRT,64BIT,CHECKSUM_OFFLOAD(ACTIVE),CHAIN> inet 10.50.1.207 netmask 0xffffff00 broadcast 10.50.1.255 tcp_sendspace 262144 tcp_recvspace 262144 rfc1323 1
-> 타 서버에 백업한 migrate를 복구 시키기 위해 test_svr2의 IP주소를 확인 합니다. IP: 10.50.1.207
[root@test_svr1:/]# ftp 10.50.1.207 Connected to 10.50.1.207. 220 test_svr2 FTP server (Version 4.2 Tue Nov 14 17:16:56 CST 2017) ready. Name (10.50.1.207:root): root 331 Password required for root. Password:**** 230-Last unsuccessful login: Thu Jul 16 13:16:03 KST 2020 on ssh from 100.100.0.4 230-Last login: Thu Jul 16 13:16:05 KST 2020 on /dev/pts/2 from 100.100.0.4 230 User root logged in. ftp>
-> 백업파일을 업로드 하기 위해 10.50.1.207 test_svr2 서버로 ftp접속을 시도 합니다. ftp로 접속이 된것을 확인된것을 확인할 수 있습니다.
ftp> pwd 257 "/tmp/pinetree" is current directory. ftp> bin 200 Type set to I. ftp> hash Hash mark printing off.
-> 업로드할 파일 위치 디렉토리를 /tmp/pinetree로 정하고 bin(전송모드), hash(진행률#)으로 설정해줍니다.
ftp> put migratevg_backup ################################################# .... ################################################# 226 Transfer complete. 1574707200 bytes sent in 9.139 seconds (1.683e+05 Kbytes/s) local: migratevg_backup remote: migratevg_backup
-> put 명령어를 통해서 파일 업로드를 합니다. 파일 업로드 후 전송이 된것을 확인 할 수 있습니다.
[root@test_svr2:/tmp/pinetree]# ls -ltr -rw-r----- 1 root system 1574707200 Jul 16 13:56 migratevg_backup [root@osk2:/tmp/pinetree]# du -sg /tmp/pinetree/migratevg_backup 1.47 /tmp/pinetree/migratevg_backup
-> test_svr2서버에서 전송이 제대로 됬는지 확인합니다. migratevg_backup파일이 /tmp/pinetree경로에 있고
백업받았을 때의 용량 1.47로 동일합니다.
[root@test_svr2:/]# lspv hdisk0 00008492ef481bbc rootvg active ...(생략) hdisk12 00c5c6d7282d8561 rootvg active hdisk13 none None
-> test_svr2서버에 hdisk13에 test_svr1에서 백업 받아온 migratevg_backup를 복구 시키도록 하겠습니다.
[root@test_svr2:/tmp/pinetree]# restvg -q -f /tmp/pinetree/migratevg_backup hdisk13 Will create the Volume Group: migratevg Target Disks: hdisk13 Allocation Policy: Shrink Filesystems: no Preserve Physical Partitions for each Logical Volume: no 0516-1254 /usr/sbin/mkvg: Changing the PVID in the ODM. migratevg migrateora_lv migratedb_lv migratenfs_lv loglv01 New volume on /tmp/pinetree/migratevg_backup: Cluster size is 51200 bytes (100 blocks). The volume number is 1. The backup date is: Thu Jul 16 13:37:18 KST 2020 Files are backed up by name. The user is root. x 14 ./tmp/vgdata/migratevg/image.info x 142 ./tmp/vgdata/vgdata.files24313888 x 142 ./tmp/vgdata/vgdata.files x 2960 ./tmp/vgdata/migratevg/filesystems x 4696 ./tmp/vgdata/migratevg/migratevg.data x 509 ./tmp/vgdata/migratevg/backup.data ...(파일내용생략) The total size is 2345850636 bytes. The number of restored files is 188.
-> migratevg에 있는 lv와 파일시스템의 정보를 복구하는 과정입니다. 명령어가 호출되면서 안에있는 파일 들을 해쉬로 다 긁어 양이 너무 많아 파일들의 과정은 생략했습니다.
[root@test_svr2:/tmp/pinetree]# lspv hdisk0 00008492ef481bbc rootvg active ...(생략) hdisk12 00c5c6d7282d8561 rootvg active hdisk13 00c5c6d7560e3356 migratevg active
-> migratevg가 hdisk13에 import되면서 복구가 되었습니다.
[root@test_svr2:/tmp/pinetree]# lsvg -l migratevg migratevg: LV NAME TYPE LPs PPs PVs LV STATE MOUNT POINT migrateora_lv jfs2 6 6 1 open/syncd /oracle_fs migratedb_lv jfs2 8 8 1 open/syncd /db_fs migratenfs_lv jfs2 10 10 1 open/syncd /nfs_fs loglv01 jfs2log 1 1 1 open/syncd N/A
-> 파일시스템도 auto로 마운트가 된것을 확인 할 수 있습니다.
[root@test_svr2:/tmp/pinetree]# df -tg | grep -i fs /dev/migratedb_lv 4.00 0.00 4.00 1% /db_fs /dev/migratenfs_lv 5.00 0.17 4.83 4% /nfs_fs /dev/migrateora_lv 3.00 2.02 0.98 68% /oracle_fs
-> test_svr2서버에서도 데이터가 잘 쓰이는지 확인하고 용량또한 기존에 사용한 용량과 같습니다.
2020/07/15 - [System and Cloud/Unix] - IBM SAVEVG,RESTVG 데이터 백업 복구방법
IBM SAVEVG,RESTVG 데이터 백업 복구방법
IBM SAVEVG,RESTVG 데이터 백업 복구방법 [root@test_svr1:/]# lspv hdisk0 00008492ef481bbc rootvg active hdisk1 00c5c6d788d2c92f None ...(생략) hdisk12 00c5c6d7282d8561 rootvg active hdisk13 00c5c..
pinetreeday.tistory.com
PS. 포스팅의 내용은 제 기준으로 작성한 것이기 때문에 참고해서 보시면 감사하겠습니다.
포스팅 과정의 오류 및 오타 그리고 궁금한 점에 대해서는 댓글 남겨주세요.
728x90반응형'System of Infra > Unix System' 카테고리의 다른 글
IBM HMC Command 명령어로 terminal 창 종료 (0) 2020.09.04 IBM SAVEVG,RESTVG 데이터 백업 복구방법(3) (0) 2020.07.21 IBM SAVEVG,RESTVG 데이터 백업 복구방법 (0) 2020.07.15 IBM AIX errpt 명령어 분석하기 (2) 2020.06.12 IBM AIX 배너(banner)설정하기 (0) 2020.06.11