SAP系統云盤擴容指南
版本管理
版本 | 修訂日期 | 變更類型 | 生效日期 |
1.0 | 2019/3/26 | ||
1.1 | 2019/3/29 | 1.更新了新增數據盤操作說明 2.文檔鏈接更新等 | 2019/3/29 |
1.2 | 2019/4/2 | 1.更新了云盤縮容參考 2.優化排版布局等 | 2019/4/2 |
1.3 | 2019/12/30 | 1.增加云盤在線擴容說明 | 2019/12/30 |
云盤擴容場景概述
本文檔描述了如何在阿里云環境中,對SAP系統應用或數據庫云盤進行在線擴容。云盤擴容主要包括系統盤擴容和數據盤擴容,在對云盤擴容前請先閱讀>在線擴容。云盤擴容主要包括系統盤擴容和數據盤擴容,在對云盤擴容前請先閱讀
系統盤的擴容請參考:
云盤擴容后,需要使用指定的操作命令將文件系統擴展為需要的容量。
特殊場景下需要進行云盤縮容,請參考:磁盤縮容。
這里以SUSE 12 SP3 for SAP為例,使用LVM管理磁盤的分區和文件系統(包括XFS和EXT),不同版本或者不同操作系統命令可能有差異,請參考對應操作系統的產品手冊。
本次擴容的場景假設SAP應用的 /hana/data, /usr/sap, /sapcd 這三個文件系統需要擴容:
/hana/data,/hana/log,/hana/shared 用三塊SSD云盤通過LVM做了條帶化處理,以滿足HANA的性能要求,文件系統為XFS。
/usr/sap 使用了一塊高效云盤,劃分到了單獨的vg中,文件系統為XFS。
/sapcd 未使用LVM管理,裸盤直接掛載,文件系統為EXT4。
示例
屬性 | 文件系統原大小 | 擴容后大小 | 文件系統 | VG | LVM條帶化 | 掛載點 |
數據盤 | 30G | 50G | XFS | datavg | 是 | /hana/data |
數據盤 | 30G | 60G | XFS | sapvg | 否 | /usr/sap |
數據盤 | 20G | 40G | EXT4 | N/A | 否 | /sapcd |
云盤擴容前,建議對云盤做快照,以防止誤操作導致的數據丟失。
更多信息,請參考 創建快照。
數據盤擴容
新增數據盤
新增數據盤,一般用于新掛載文件系統、單塊云盤容量已經超過最大容量限制或多盤做LVM條帶化提升磁盤IO性能的場景。
示例:新增20G云盤并掛載到文件系統 /usr/sap/T01
1.控制臺新建一塊20G云盤 ,并掛載到當前ECS,系統自動分配磁盤名 /dev/vdg
# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
vda 253:0 0 40G 0 disk
└─vda1 253:1 0 40G 0 part /
vdb 253:16 0 40G 0 disk
├─datavg-lvhshared 254:1 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:2 0 50G 0 lvm /hana/data
└─datavg-lvhlog 254:3 0 10G 0 lvm /hana/log
vdc 253:32 0 40G 0 disk
├─datavg-lvhshared 254:1 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:2 0 50G 0 lvm /hana/data
└─datavg-lvhlog 254:3 0 10G 0 lvm /hana/log
vdd 253:48 0 40G 0 disk
├─datavg-lvhshared 254:1 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:2 0 50G 0 lvm /hana/data
└─datavg-lvhlog 254:3 0 10G 0 lvm /hana/log
vde 253:64 0 60G 0 disk
└─sapvg-lvusrsap 254:0 0 60G 0 lvm /usr/sap
vdf 253:80 0 40G 0 disk /sapcd
vdg 253:96 0 20G 0 disk
2.擴展到已有的vg并新建lv
將新加的云盤擴展到現有的vg中
# vgextend sapvg /dev/vdg
Volume group "sapvg" successfully extended
# pvs -a
PV VG Fmt Attr PSize PFree
/dev/datavg/lvhdata --- 0 0
/dev/datavg/lvhlog --- 0 0
/dev/datavg/lvhshared --- 0 0
/dev/root --- 0 0
/dev/sapvg/lvusrsap --- 0 0
/dev/vdb datavg lvm2 a-- 40.00g 13.33g
/dev/vdc datavg lvm2 a-- 40.00g 13.33g
/dev/vdd datavg lvm2 a-- 40.00g 13.33g
/dev/vde sapvg lvm2 a-- 60.00g 0
/dev/vdf --- 0 0
/dev/vdg sapvg lvm2 a-- 20.00g 20.00g
# lvcreate -l 100%FREE -n lvsapsid sapvg
Logical volume "lvsapsid" created.
# mkfs.xfs /dev/sapvg/lvsapsid
meta-data=/dev/sapvg/lvsapsid isize=256 agcount=4, agsize=1310464 blks
= sectsz=512 attr=2, projid32bit=1
= crc=0 finobt=0, sparse=0
data = bsize=4096 blocks=5241856, imaxpct=25
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal log bsize=4096 blocks=2560, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
3.掛載新的文件系統到指定掛載點
如果新建的分區需要掛載到非空目錄,請先將該目錄下的子目錄和文件臨時移動或備份到其他目錄下,待掛載成功后再將子目錄和文件移動或拷貝回來。
mount /dev/mapper/sapvg-lvsapsid /usr/sap/T01
# df -Th
Filesystem Type Size Used Avail Use% Mounted on
devtmpfs devtmpfs 3.9G 8.0K 3.9G 1% /dev
tmpfs tmpfs 8.0G 0 8.0G 0% /dev/shm
tmpfs tmpfs 3.9G 660K 3.9G 1% /run
tmpfs tmpfs 3.9G 0 3.9G 0% /sys/fs/cgroup
/dev/vda1 ext4 40G 3.6G 34G 10% /
/dev/vdf ext4 40G 48M 38G 1% /sapcd
/dev/mapper/datavg-lvhdata xfs 50G 33M 50G 1% /hana/data
/dev/mapper/datavg-lvhlog xfs 10G 33M 10G 1% /hana/log
/dev/mapper/datavg-lvhshared xfs 20G 33M 20G 1% /hana/shared
/dev/mapper/sapvg-lvusrsap xfs 60G 33M 60G 1% /usr/sap
tmpfs tmpfs 799M 0 799M 0% /run/user/0
/dev/mapper/sapvg-lvsapsid xfs 20G 33M 20G 1% /usr/sap/T01
4.將新加的文件系統添加到fstab
echo "/dev/mapper/sapvg-lvsapsid /usr/sap/T01 xfs defaults 0 0" >>/etc/fstab
數據盤擴容
查看當前文件系統
要查詢當前實例的文件系統,請先登錄ECS的操作系統。
當前示例的操作系統為SUSE 12,數據盤的文件系統為XFS和EXT4。
# df -Th
Filesystem Type Size Used Avail Use% Mounted on
devtmpfs devtmpfs 3.9G 8.0K 3.9G 1% /dev
tmpfs tmpfs 8.0G 0 8.0G 0% /dev/shm
tmpfs tmpfs 3.9G 624K 3.9G 1% /run
tmpfs tmpfs 3.9G 0 3.9G 0% /sys/fs/cgroup
/dev/vda1 ext4 40G 3.6G 34G 10% /
tmpfs tmpfs 799M 0 799M 0% /run/user/0
/dev/mapper/sapvg-lvusrsap xfs 30G 33M 30G 1% /usr/sap
/dev/mapper/datavg-lvhdata xfs 30G 33M 30G 1% /hana/data
/dev/mapper/datavg-lvhlog xfs 10G 33M 10G 1% /hana/log
/dev/mapper/datavg-lvhshared xfs 20G 33M 20G 1% /hana/shared
/dev/vdf ext4 20G 44M 19G 1% /sapcd
擴展分區
使用lsblk命令查看實例上存儲設備的信息。有關LVM分區的介紹,請參考LVM how to。
云盤擴容前狀態
# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
vda 253:0 0 40G 0 disk
└─vda1 253:1 0 40G 0 part /
vdb 253:16 0 20G 0 disk
├─datavg-lvhshared 254:0 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:1 0 30G 0 lvm /hana/data
└─datavg-lvhlog 254:2 0 10G 0 lvm /hana/log
vdc 253:32 0 20G 0 disk
├─datavg-lvhshared 254:0 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:1 0 30G 0 lvm /hana/data
└─datavg-lvhlog 254:2 0 10G 0 lvm /hana/log
vdd 253:48 0 20G 0 disk
├─datavg-lvhshared 254:0 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:1 0 30G 0 lvm /hana/data
└─datavg-lvhlog 254:2 0 10G 0 lvm /hana/log
vde 253:64 0 30G 0 disk
└─sapvg-lvusrsap 254:3 0 30G 0 lvm /usr/sap
vdf 253:80 0 20G 0 disk /sapcd
登錄控制臺,選擇需要擴容的云盤,完成擴容操作后重啟ECS
# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
vda 253:0 0 40G 0 disk
└─vda1 253:1 0 40G 0 part /
vdb 253:16 0 40G 0 disk
├─datavg-lvhshared 254:1 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:2 0 30G 0 lvm /hana/data
└─datavg-lvhlog 254:3 0 10G 0 lvm /hana/log
vdc 253:32 0 40G 0 disk
├─datavg-lvhshared 254:1 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:2 0 30G 0 lvm /hana/data
└─datavg-lvhlog 254:3 0 10G 0 lvm /hana/log
vdd 253:48 0 40G 0 disk
├─datavg-lvhshared 254:1 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:2 0 30G 0 lvm /hana/data
└─datavg-lvhlog 254:3 0 10G 0 lvm /hana/log
vde 253:64 0 60G 0 disk
└─sapvg-lvusrsap 254:0 0 30G 0 lvm /usr/sap
vdf 253:80 0 40G 0 disk /sapcd
/dev/vdb,/dev/vdc,/dev/vdd 三塊云盤做了條帶化處理,對應的文件系統是/hana/data /hana/log /hana/shared。雖然云盤的擴容已經生效(單盤40G,擴容后總容量120G),但lv的大小還是原始大小(30G),需要先擴展vg,再擴展lv。
云盤/dev/vde只有一個lv /usr/sap。云盤的擴容已經生效(60G),但lv的大小還是原始大小(30G),需要先擴展vg,再擴展lv。
云盤/dev/vdf 沒有做lvm,分區的大小反映了新的大小。(40G)
擴展vg和lv
使用LVM命令將文件系統的大小調整為新的容量。
1.擴展pv
# pvresize /dev/vdb /dev/vdc /dev/vdd /dev/vde
Physical volume "/dev/vdb" changed
Physical volume "/dev/vdc" changed
Physical volume "/dev/vdd" changed
Physical volume "/dev/vde" changed
4 physical volume(s) resized / 0 physical volume(s) not resized
2.按需求調整lv大小,按本示例規劃調整如下:
# lvresize -L +20G /dev/datavg/lvhdata
Using stripesize of last segment 64.00 KiB
Rounding size (12800 extents) up to stripe boundary size for segment (12801 extents)
Size of logical volume datavg/lvhdata changed from 30.00 GiB (7680 extents) to 50.00 GiB (12801 extents).
Logical volume lvhdata successfully resized
# lvresize -L +30G /dev/sapvg/lvusrsap
Size of logical volume sapvg/lvusrsap changed from 30.00 GiB (7679 extents) to 60.00 GiB (15359 extents).
Logical volume lvusrsap successfully resized
3.擴展lv
示例:擴展XFS文件系統
# xfs_growfs /usr/sap
meta-data=/dev/mapper/sapvg-lvusrsap isize=256 agcount=4, agsize=1965824 blks
= sectsz=512 attr=2, projid32bit=1
= crc=0 finobt=0 spinodes=0
data = bsize=4096 blocks=7863296, imaxpct=25
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal bsize=4096 blocks=3839, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
data blocks changed from 7863296 to 15727616
# xfs_growfs /hana/data
meta-data=/dev/mapper/datavg-lvhdata isize=256 agcount=16, agsize=491504 blks
= sectsz=512 attr=2, projid32bit=1
= crc=0 finobt=0 spinodes=0
data = bsize=4096 blocks=7864064, imaxpct=25
= sunit=16 swidth=48 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal bsize=4096 blocks=3840, version=2
= sectsz=512 sunit=16 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
data blocks changed from 7864064 to 13108224
示例:擴展ext2,ext3或ext4文件系統,使用resize2fs命令擴展每個卷上的文件系統
# resize2fs /dev/vdf
resize2fs 1.42.11 (09-Jul-2014)
Filesystem at /dev/vdf is mounted on /sapcd; on-line resizing required
old_desc_blocks = 2, new_desc_blocks = 3
The filesystem on /dev/vdf is now 10485760 blocks long.
5.驗證結果
# df -Th
Filesystem Type Size Used Avail Use% Mounted on
devtmpfs devtmpfs 3.9G 8.0K 3.9G 1% /dev
tmpfs tmpfs 8.0G 0 8.0G 0% /dev/shm
tmpfs tmpfs 3.9G 648K 3.9G 1% /run
tmpfs tmpfs 3.9G 0 3.9G 0% /sys/fs/cgroup
/dev/vda1 ext4 40G 3.6G 34G 10% /
/dev/vdf ext4 40G 48M 38G 1% /sapcd
tmpfs tmpfs 799M 0 799M 0% /run/user/0
/dev/mapper/datavg-lvhdata xfs 50G 33M 50G 1% /hana/data
/dev/mapper/datavg-lvhlog xfs 10G 33M 10G 1% /hana/log
/dev/mapper/datavg-lvhshared xfs 20G 33M 20G 1% /hana/shared
/dev/mapper/sapvg-lvusrsap xfs 60G 33M 60G 1% /usr/sap
# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
vda 253:0 0 40G 0 disk
└─vda1 253:1 0 40G 0 part /
vdb 253:16 0 40G 0 disk
├─datavg-lvhshared 254:1 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:2 0 50G 0 lvm /hana/data
└─datavg-lvhlog 254:3 0 10G 0 lvm /hana/log
vdc 253:32 0 40G 0 disk
├─datavg-lvhshared 254:1 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:2 0 50G 0 lvm /hana/data
└─datavg-lvhlog 254:3 0 10G 0 lvm /hana/log
vdd 253:48 0 40G 0 disk
├─datavg-lvhshared 254:1 0 20G 0 lvm /hana/shared
├─datavg-lvhdata 254:2 0 50G 0 lvm /hana/data
└─datavg-lvhlog 254:3 0 10G 0 lvm /hana/log
vde 253:64 0 60G 0 disk
└─sapvg-lvusrsap 254:0 0 60G 0 lvm /usr/sap
vdf 253:80 0 40G 0 disk /sapcd