AWS ~ボリュームの変更~
はじめに
インフラエンジニア初学者のぽれいんと申します。
転職する前はプログラミングスクールにて主にHTML、CSS、Ruby、MySQL等について学びました。
※このブログでは自分が後々、見返すことができるようにまとめることを目的としていますが、もし需要があるようでしたら是非ともご覧ください。
<前回の記事>
<参考記事>
EBS ボリュームへの変更のリクエスト - Amazon Elastic Compute Cloud
ボリュームサイズ変更後の Linux ファイルシステムの拡張 - Amazon Elastic Compute Cloud
EC2での操作
2.変更するインスタンスを選択しストレージに移動
3.ボリュームIDを選択
4.アクション^よりボリュームの変更を選択
5.サイズに変更したい値を入力して、変更を選択
※ ▼Elastic Block Store のボリュームからボリュームサイズの変更が可能だが事故を防ぐために、上記のやり方の方が安全と判断。
インスタンス内での操作
rootになる
sudo su -
各ボリュームで使用中のファイルシステムを確認
df -hT
-以下上記コマンド実行結果例-
Filesystem Type Size Used Avail Use% Mounted on
devtmpfs devtmpfs 482M 0 482M 0% /dev
tmpfs tmpfs 492M 0 492M 0% /dev/shm
tmpfs tmpfs 492M 476K 492M 1% /run
tmpfs tmpfs 492M 0 492M 0% /sys/fs/cgroup
/dev/xvda1 xfs 8.0G 2.1G 6.0G 26% /
tmpfs tmpfs 99M 0 99M 0% /run/user/1000
tmpfs tmpfs 99M 0 99M 0% /run/user/0
ボリュームに拡張が必要なパーティションがあるか確認
lsblk
-以下上記コマンド実行結果例-
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
xvda 202:0 0 10G 0 disk
mqxvda1 202:1 0 8G 0 part /
growpart /dev/xvda 1
増加したボリュームサイズがパーティションに反映されていることを確認
lsblk
-以下上記コマンド実行結果例-
xvda 202:0 0 10G 0 disk
mqxvda1 202:1 0 10G 0 part /
各ボリュームのファイルシステムのサイズを確認
df -h
-以下上記コマンド実行結果例-
Filesystem Size Used Avail Use% Mounted on
devtmpfs 482M 0 482M 0% /dev
tmpfs 492M 0 492M 0% /dev/shm
tmpfs 492M 476K 492M 1% /run
tmpfs 492M 0 492M 0% /sys/fs/cgroup
/dev/xvda1 8.0G 2.1G 6.0G 26% /
tmpfs 99M 0 99M 0% /run/user/1000
tmpfs 99M 0 99M 0% /run/user/0
ボリュームでファイルシステムを拡張
xfs_growfs -d /
-以下上記コマンド実行結果例-
meta-data=/dev/xvda1 isize=512 agcount=4, agsize=524159 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=1 spinodes=0
data = bsize=4096 blocks=2096635, imaxpct=25
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal bsize=4096 blocks=2560, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
data blocks changed from 2096635 to 2620923
変更を確認
df -h
-以下上記コマンド実行結果例-
Filesystem Size Used Avail Use% Mounted on
devtmpfs 482M 0 482M 0% /dev
tmpfs 492M 0 492M 0% /dev/shm
tmpfs 492M 476K 492M 1% /run
tmpfs 492M 0 492M 0% /sys/fs/cgroup
/dev/xvda1 10G 2.1G 8.0G 21% /
tmpfs 99M 0 99M 0% /run/user/1000
tmpfs 99M 0 99M 0% /run/user/0
以上!!!!!!