LVMを語らせていただけませんか? その2
■ このスレッドは過去ログ倉庫に格納されています
0001login:Penguin
2010/07/16(金) 11:25:26ID:JcEUPlkg■LVMの主な機能
ハードディスクのパーティションを物理デバイスでまたがって一つのパーティションにする
既にあるLVMパーティションを増設した物理デバイスを追加することができる
パーティションのスナップショットを作成する
など。
前スレ
LVMを語らせていただけませんか?
http://pc11.2ch.net/test/read.cgi/linux/1024122484/
関連スレ
RAID総合スレッド No.5
http://pc11.2ch.net/test/read.cgi/linux/1253111675/
ファイルシステム総合スレ その11
http://pc11.2ch.net/test/read.cgi/linux/1256639505/
0084login:Penguin
2011/08/20(土) 13:16:18.86ID:K4sqGdaRLiveCDで起動→vgcfgrestoreで以前の状態に戻す
(lvextendの直前 or vgextendの直前)
lvextendしただけなら問題ないはず
ファイルシステム拡張済みの場合はfsckする
0085login:Penguin
2011/08/20(土) 22:35:52.78ID:HzylOLMk今VGから1回取り外したPVを再作成して取り外したいPVから pvmove 中…
本当助かりました!ありがとう!
自分の知識じゃ思いつかなかったもんで、もう1台外からつなげて移動させようとHDD買ったのが届いてしまった…
0086login:Penguin
2012/01/23(月) 00:50:23.15ID:xQQZSV8664bit kernel 3.1.x + lvm2 な環境です。
VGこさえるときのPEサイズで、1LVの最大容量が決まる(65536PEまで)
みたいな記述があちこちにあるので、試しに
vgcreate -s1k VG /dev/sdc1
とPEサイズを1kiBにして、その上に1TiBのLV作れちゃったんだよね。
そういう仕様について、適切な記述があるとこを教えて欲しいのですが。。。
ちなみに目的は、30TiBぐらいまで拡張可能なLVを運用することです。
ソース嫁は、ちょっと勘弁してくだしあ。
008786
2012/01/23(月) 01:50:20.50ID:xQQZSV86LVM2では、事実上PEサイズの上限は無いみたいですね。1KiB〜みたいな。
PEサイズを小さくしてPE数が多くなると、ツールのパフォーマンスは下がるけどI/Oには関係ないと。
ベストバランスはどのへんなんだろう。。。
0088login:Penguin
2012/01/23(月) 22:33:03.46ID:6etnk5OQLVあたりのPE数の制限はLVM1だけだと思う
その環境だとLV1つあたり最大8EB
ttp://tldp.org/HOWTO/html_single/LVM-HOWTO/#AEN407
PEサイズはファイルシステム拡張時の最小単位ということを意識しつつ出来るだけ大きい値
30TBがゴールなら1GBぐらいでいいんじゃないの
というか、小さいPEサイズで細かく拡張とかしてたら30TB使い切る前にmetadataが溢れるような気がする
0089login:Penguin
2012/01/24(火) 12:08:35.88ID:6ilQmgvbCentOS 5.3 64bit でLVMを使用しています。
カーネルパニックを起こしていたので再起動したところ、
正常に立ち上がらなくなってしまいました。
以下、起動途中に出るエラーメッセージです。
--------------------------------------------------------------------------------------------
Red Hat nash version 5.1.19.6 starting
Reading all physical volumes. This may take a while...
Couldn't find device with uuid 'kDdyoQ-0P5f-eZkg-qt54-KMQt-Krxk-JuWVjY'.
Found volume group "VolGroup00" using metadata type lvm2
Couldn't find device with uuid 'kDdyoQ-0P5f-eZkg-qt54-KMQt-Krxk-JuWVjY'.
Couldn't find device with uuid 'kDdyoQ-0P5f-eZkg-qt54-KMQt-Krxk-JuWVjY'.
Refusing activation of partial LV LogVol00. Use --partial to override.
Couldn't find device with uuid 'kDdyoQ-0P5f-eZkg-qt54-KMQt-Krxk-JuWVjY'.
Refusing activation of partial LV LogVol00. Use --partial to override.
0 logical volume(s) in volume group "VolGroup00" now active
Unable to access resume device (/dev/VolGroup00/LogVol01)
mount: could not find filesystem '/dev/root'
setuproot: moving /dev failed: No such file or directory
setuproot: error mounting /proc: No such file or directory
setuproot: error mounting /sys: No such file or directory
switchroot: mount failed: No such file or directory
Kernel panic - not syncing: Attempted to kill init!
--------------------------------------------------------------------------------------------
RAIDを組んだりもせず、1TBx2個をLinuxインストール時にLVMで2TBとし
そこにCentOSを入れていたのですがもうアウトでしょうか。
もし復旧できそうならアドバイスお願いします。
0090login:Penguin
2012/01/24(火) 20:21:12.68ID:t4zLntmz多分、DISKの1つが見えないからボリュームグループを活動化出来ない状態
1.蓋開けてケーブルが抜けてないか確認
2.LiveCDで起動してDISKを認識するかどうか確認
→1個しかDISKが見えない場合=片方死んでる。
生きてる方のDISKのデータを部分的にでも救出したい場合(復旧は無理)、
LiveCD上からボリュームグループを無理やり活動化→論理ボリュームに対しfsck
# vgchange --partial -a y
# fsck -y /dev/VolGroup00/LogVol01
2つのDISKを跨っていたファイルシステムは激しく壊れるから期待しないほうがいい
0091login:Penguin
2012/02/02(木) 01:46:51.15ID:acQ+iR5jCentOS6でlvmを使っているのですが,grubのバージョンを0.97から1.99rcに変更をしたところ,
急に論理ボリュームが拾えなくなりました(ルートが論理ボリュームのためカーネル機動できず…).
linux rescue(kernel 3.0, amd64)等からlvm.confでsdaを探索範囲に指定しpvscanを実行しても
No matching physical volumes found
というエラーが戻ります(-vvvオプションで/dev/sdaは探索は確認されました)
せめてホームディレクトリだけでも復旧したいのですが,
そもそもpvscanの段階で物理ディスクが認識されないため手も足も出ない状態になっています.
環境は以下の通りですので,わかる方どなたかご助言下さい.
(fdisk実行結果に基づく)
/dev/sda MBR partition
Device Boot Start End Blocks Id System
/dev/sda1 * 63 208844 104391 83 Linux /boot ext2
/dev/sda2 208845 1953520064 976655610 8e Linux LVM
- /dev/VolGroup01/LogVol00 / ext3
- /dev/VolGroup01/LogVol01 swap
0092login:Penguin
2012/02/02(木) 15:46:34.53ID:woypY+8F0093login:Penguin
2012/02/06(月) 18:52:51.59ID:qiNYEPFmramdiskから毎回lvchange -ayを用いてactiveにしないと使えない症状になっています.
恒久的にactiveを保つ手法等はないでしょうか?
0094login:Penguin
2012/02/07(火) 00:26:40.04ID:hGIDJLQxactiveにした状態でinitial ramdiskを作り直せばいんじゃね?
009593
2012/02/09(木) 00:23:32.14ID:N4oXKZvyactive状態で/etc/fstab, 多分関係ないけど/etc/lvm.conf等を書き直してramdisk作り直しましたが,
どうしてもだめなようです……
0096LVMer
2012/03/16(金) 13:32:14.62ID:QZlg1TZYLVMで新しいlvを作成する際、virtualsizeを指定することによって仮想的に
大きなディスク領域を作成できるかと思います。
こんな感じで。
# lvcreate -L 100M --virtualsize 1G -n virtual myvg
これで、1GBのディスク領域が作成されました。
ただ、この手法で作成したvirtualというLVのsnapshotが取れず困っています。
# lvcreate --snapshot --size=1G --name virtual-snap /dev/myvg/virtual
Snapshots of snapshots are not supported yet.
スナップショットのスナップショットが取れないという事なら仕方ないのですが、
何か妙案は無いものかと、諸兄にご相談です。
参考までに、dmsetup lsの結果です。
# dmsetup ls --tree
zero (253:27)
myvg-virtual (253:203)
|-myvg-virtual-cow (253:206)
| `- (8:1)
`-myvg-virtual_vorigin-real (253:205)
myvg-virtual_vorigin (253:204)
`-myvg-virtual_vorigin-real (253:205)
0097login:Penguin
2012/06/23(土) 00:43:25.61ID:FmTOq4ex0098login:Penguin
2012/06/23(土) 22:53:33.42ID:hwFJJwfF0099login:Penguin
2012/06/23(土) 23:05:48.20ID:ojVDqtPu既にある機能だから、ドッグフードイーターがどれほど居るか怪しい気がしてね。
0100login:Penguin
2012/06/24(日) 20:58:10.20ID:QFLYadGWCentOS5.6で、最初2TBのディスク1本だけをLVM管理にしてたんですが、
最近容量が足りなくなって2.5TBと3TBを追加しました。
普通に、pvcraete -> vgextend -> lvextend -> xfs_grow と作業して、
問題無く容量が増えたんですが、いろいろなファイルをコピー・移動して
いる最中に、3.4?TBくらいでOS側から容量不足のメッセージが出るように
なってしまいました。
2TBは確実に超えてコピーできるし、アクセスランプも光るので、新しい
ディスクが利用されているのは確かなんですが、全容量が使えないのは
何故なんでしょうか?
最初にあまり考えずにLVM設定したので、PEを4MBで作成してしまったん
ですが、>>88に書いてある「metadataのあふれ」が気になっていますが、
確認ってどうやるんでしょうか?syslogやmessagesに関係のありそうな
ログが見つからんし…
FSはXFSにしてるので、純粋な容量制限やiノードの制限ではないと
考えているのですが、何かご存じの方がいたら教えてください。
0101login:Penguin
2012/06/24(日) 22:12:30.23ID:mnCaBf0J>>96
> スナップショットのスナップショットが取れないという事なら仕方ないのですが、
できないってマニュアルに書いてある
>>100
metadataの状況は
# pvs -o pv_name,pv_mda_size,pv_mda_free
0102login:Penguin
2012/06/24(日) 22:37:02.00ID:ftytyYyeinode64
0103login:Penguin
2012/06/24(日) 23:20:12.46ID:QFLYadGWありがとうございました。
メタデータは、各PVとも半分くらいFreeだったので、
あふれているわけではなさそうですね。
>>102
ググってみたのですが、そんな罠があったとは…
最初の2TBディスクがほぼほぼフルに到達したので、今回の
ディスク増設をしたのですが、先頭1TBを使い切ってしまい、
iノード用の領域が不足しているということなんでしょうね…?
これって、LVM側でなんらかの方法でデータを各ディスクに
分散させても、解決しないですよね、多分?
XFS内部の論理的なデータ配置?が改善されないと、状況が
改善されそうに無い気がしてきました。
そうなると、LVを縮小&分割して、別パーティションとして
マウントしたほうが安全なのかな…?
とりあえず、XFSについてもうちょっと調べてみます。
0104100
2012/06/26(火) 12:40:28.03ID:799922Yy32 Q: Why do I receive No space left on device after xfs_growfs?
http://xfs.org/index.php/XFS_FAQ
"A complete dump and restore will also fix the problem ;)"が一番
確実そうなので、なんとかディスクを確保してからダンプ&リストアを
やってみようかと思います。
0105login:Penguin
2012/07/24(火) 12:52:56.28ID:bDHiFXoZこういうときはどうしたらいいんだ……?
0106login:Penguin
2012/12/28(金) 23:10:09.51ID:lvAIupHmhttp://sourceforge.jp/magazine/12/12/25/2155242
■ このスレッドは過去ログ倉庫に格納されています