LVMを語らせていただけませんか? その2
■ このスレッドは過去ログ倉庫に格納されています
0001login:Penguin
2010/07/16(金) 11:25:26ID:JcEUPlkg■LVMの主な機能
ハードディスクのパーティションを物理デバイスでまたがって一つのパーティションにする
既にあるLVMパーティションを増設した物理デバイスを追加することができる
パーティションのスナップショットを作成する
など。
前スレ
LVMを語らせていただけませんか?
http://pc11.2ch.net/test/read.cgi/linux/1024122484/
関連スレ
RAID総合スレッド No.5
http://pc11.2ch.net/test/read.cgi/linux/1253111675/
ファイルシステム総合スレ その11
http://pc11.2ch.net/test/read.cgi/linux/1256639505/
0031login:Penguin
2010/09/24(金) 20:40:37ID:sfMghyA70032login:Penguin
2010/10/07(木) 22:27:49ID:OH2WVtPq0033login:Penguin
2010/10/12(火) 15:58:48ID:qk+JPpfnという VG, LV を作って使っていたのですが、/dev/sda1 に不良が発生したらしく、
正しく読めなくなってしまいました。交換用に購入した HDD は単発で 2TB のもので、
こいつを /dev/sdc1 2TB として物理接続し、
ddrescue -r3 /dev/VolGroup00/LogVol01 /dev/sdc1 をやってみたところ、
数回のエラーは出たものの、どうやら無事 rescue できた様子。
なんですが、さてこれ、元の /dev/VolGroup00/LogVol01 とは、
どうやって完全に置き換えればいいんでしょうか。
いちおう、希望としては、2TB 単発ではなく、やはり2台の 2TB HDD を用いて、
4TB な LV を作りたいと思っているのですが。
0034login:Penguin
2010/10/12(火) 16:01:51ID:15EZKIQj0035login:Penguin
2010/10/12(火) 19:22:21ID:xJMmfz7u普通、ddrescueで吸い出さないといけないのは、LogVol01じゃなくて、
異常の発生した物理DISK(/dev/sda1)だよ
> ddrescue -r3 /dev/VolGroup00/LogVol01 /dev/sdc1 をやってみたところ、
> 数回のエラーは出たものの、どうやら無事 rescue できた様子。
"無事に"って本当?/dev/sdc1はマウント出来て、中身もちゃんとある?
0036login:Penguin
2010/10/12(火) 20:02:00ID:qk+JPpfnもう一回やってみます。ありがとうございます。
0037login:Penguin
2010/10/13(水) 20:31:46ID:1gdWnNce0038login:Penguin
2010/10/13(水) 21:31:06ID:ILOgZpW11. 新しいDISKを既存のボリュームグループに追加(vgextend)
2. 古いDISK上の使用中の領域を新しいDISKに移動(pvmove)
3. 古いDISKをボリュームグループから削除(vgreduce)
古いDISKが無くなるまで繰り返し
0039login:Penguin
2010/10/14(木) 10:09:29ID:bAKxU1Ms0040login:Penguin
2010/10/14(木) 17:50:17ID:qfPDR+5Zもう一度試す前に/dev/sdc1の中身を調べてみろって
間違いなくデータは救出できてるから
もちろんマウント前にfsckは忘れずに
0041login:Penguin
2010/10/14(木) 19:21:37ID:Y2Afx2kz1. ddrescueで不良DISKのデータ吸い出し
2. vgcfgrestore
3. vgchange -ay
4. fsck
>>38は、小さいDISKで作ったボリュームグループを、
データを載せたまま大きいDISKに移行したい、って場合を想定してたんだけど
(すべての新旧DISKを同時接続できるなら、普通にコピーした方が楽)
>>33,37,39 って同じ人?
0042login:Penguin
2010/10/14(木) 20:48:59ID:bAKxU1Ms>>40 の人は意地悪さんなのか、それとも親切さんなのでしょうか?
0043login:Penguin
2010/10/14(木) 21:15:41ID:Y2Afx2kz>>40は親切さんだよ
>>35の物理ボリュームを吸うってのは一般的には正しいが、
もし物理DISKの異常が軽度だったら、LogVol01をddrescueで吸い出したものが
ファイルシステムのイメージとして有効な可能性もある
異常があると言いつつ、VGの活動化は出来ているみたいだから、
軽度の異常である可能性は十分ある
/dev/sdc1のfsck & mountを試みるべき
004442
2010/10/21(木) 09:46:30ID:gD42Njcjせっかく教えていただいてるのにどうもすみません。
間違えるとエラいことになるかと思うと、落ち着きと集中力とが必要で。。
もう一度情報を整理してみました。
1). 古いHDD2台を物理接続しただけでマウントしてない状態です。
# pvscan
PV /dev/sda1 VG VolGroup00 lvm2 [465.75 GB / 0 free]
PV /dev/sdb1 VG VolGroup00 lvm2 [465.75 GB / 64.00 MB free]
Total: 2 [931.50 GB] / in use: 2 [931.50 GB] / in no VG: 0 [0 ]
# vgscan
Reading all physical volumes. This may take a while...
Found volume group "VolGroup00" using metadata type lvm2
# lvscan
ACTIVE '/dev/VolGroup00/LogVol00' [931.44 GB] inherit
これが現状です。
これまでの経験から、エラーが出るのは /sda1 ではなく sdb1 だったので、
不良があるのはどうも /dev/sdb1 の方らしい。
004542
2010/10/21(木) 09:47:11ID:gD42Njcjこれまでに ddrescue した /sdc が、/sda の代わりに認識されているようなので、
# vgchange -a n VolGroup00
# vgremove VolGroup00
# fdisk /dev/sdc
でパーティションを抹消、
# vgchange -a y VolGroup00
で古い方を再活性化した状態からの再スタートになります。
不安なので、上記 1). の状態に戻っているか一行ずつチェックし、完全に 1). 通りであることを確認。
3). ここで再度以下を試します。
# ddrescue -r3 --force /dev/VolGroup00/LogVol00 /dev/sdc /var/log/`date +%Y%m%d`_ddrescue.log
巨大サイズ故にかなり時間がかかることは経験済みなので、この状態で外出します。
まとまった時間が取れないのは、ボリュームがデカすぎて、時間を取ったつもりが、
それでも全然終わらんから、というのは冗談抜きに深刻な問題です。
戻って来るのは夕方すぎですが、はたしてその頃に終わっているかどうか。。。
004642
2010/10/21(木) 21:56:06ID:gD42Njcj# Rescue Logfile. Created by GNU ddrescue version 1.13
# Command line: ddrescue -r3 --force /dev/VolGroup00/LogVol00 /dev/sdc /var/log/20101021_ddrescue.log
# current_pos current_status
0xE438006E00 +
# pos size status
0x00000000 0xE438006000 +
0xE438006000 0x00001000 -
0xE438007000 0x4A3FF9000 +
以上。この + とか - とかになんか意味があるんでしょうが、分かりません。
0047login:Penguin
2010/10/21(木) 22:35:12ID:xKia8yzyつ ttp://www.gnu.org/software/ddrescue/manual/ddrescue_manual.html#Logfile-Structure
リトライするなら/dev/sda1と/dev/sdb1を吸い上げて欲しかったけど、まぁいいや
とりあえず、/dev/sdcをfsck & mountだ
004842
2010/10/22(金) 08:35:27ID:kU5bId9qとりあえず現在、
# fsck /dev/sdc
中です。ちなみに /dev/sda1 と /dev/sdb1 とを吸い上げる場合、
それぞれ別の物理ドライブに吸い上げる方がいいのですか?それとも同一物理ドライブに?
004942
2010/10/22(金) 09:11:41ID:kU5bId9q# fsck /dev/sdc >`date +%Y%m%d`_fsck_sdc.log 2>&1
などとするんでしょうか?
関係ないですけど、この最後の 2>&1 ってのがワケ分らなくて、いつも忘れる。
あ、今以下の用に出ました。これは y するしかないと思いますがとりあえず。
# fsck /dev/sdc
fsck 1.35 (28-Feb-2004)
e2fsck 1.35 (28-Feb-2004)
/dev/sdc contains a file system with errors, check forced.
Pass 1: Checking inodes, blocks, and sizes
Inode 119652481 is in use, but has dtime set. Fix<y>?
この時点で40分以上経過。
以下、同じ待機状態が連続すると予測。
やっぱ -y でやるしかないのかな。
0050login:Penguin
2010/10/22(金) 09:25:19ID:Yt0M7i1efsck -y /dev/sdx
cat /var/log/fsck
005142
2010/10/22(金) 09:25:29ID:kU5bId9q# fsck -y /dev/sdc > /var/log/`date +%Y%m%d`_fsck_sdc.log 2>&1
09:20:56 にスタート。待機。
005242
2010/10/22(金) 09:58:18ID:kU5bId9q005342
2010/10/22(金) 10:51:55ID:kU5bId9qところで mount はどこに?
様子見なので /mnt/test など「どっか適当に」かな?
でもこれ、論理ボリュームを写したものなので、
こいつ自体もやっぱ論理ボリュームのはずだと思うんですが、違うのかな。
とすると、いきなり
# mount -t ext3 /dev/sdc1 /mnt/test
とやったところで「そんなデバイスはないぜ」と言われる気がするのですが。
やっぱ pvscan vgscan lvscan なんですかね。
0054login:Penguin
2010/10/22(金) 10:54:11ID:01aW1eM5005542
2010/10/22(金) 10:57:27ID:kU5bId9q0056login:Penguin
2010/10/22(金) 19:57:46ID:5Ej1cijL> 中です。ちなみに /dev/sda1 と /dev/sdb1 とを吸い上げる場合、
> それぞれ別の物理ドライブに吸い上げる方がいいのですか?それとも同一物理ドライブに?
質問の意図が分からん
俺だったら、/dev/sda1と/dev/sdb1のイメージファイルを新しい1個のDISK上に吸い上げる(容量があれば)
んで、次の作業を始める前に、イメージファイルをさらに別のDISKにバックアップしておく
>>53
> 様子見なので /mnt/test など「どっか適当に」かな?
うん。適当で
> でもこれ、論理ボリュームを写したものなので、
> こいつ自体もやっぱ論理ボリュームのはずだと思うんですが、違うのかな。
違うよ。
デバイスの種類としては、DISKのパーティション(/dev/sda1, /dev/sdb1等)と同じ
論理ボリューム=仮想的なDISKパーティション
005742
2010/10/24(日) 21:05:40ID:2i0Xn6Xnいつも丁寧なアドバイスをどうもありがとうございます / ました。
>>56 のリプライをいただいたのと入れ違い?になってしまったのですが、
>>55 のあと「失敗したら最初からやり直しゃいいや」と思い、
エイヤ!でいろいろやってみました。
結論から言いますと、すべてのデータを救出できました。
まず、>>47 のアドバイスをいただいて、>>48 にトライする段階で、
そもそも /dev/sdc1 が無いことに軽い衝撃を受けていました。
物理ドライブを丸ごと全体使っても、一つのパーティションとして、
つまり /dev/sdc1 として認識されるものだと思っていました。← アホ
005842
2010/10/24(日) 21:08:04ID:2i0Xn6Xnものすごいショックで、もう一回一からやり直そうかと考えたのですが、
もう一度冷静に >>47 を読み直して、/dev/sdc1 とは書かれておらず、
あくまで /dev/sdc と書いておられたことを確認し、
半信半疑で # fsck -y /dev/sdc をやったのが >>48 と >>51 です。
fsck のログを見たら、JPG ファイルが一つと mp3 ファイルが一つ、
なんかよく分りませんが、具体名を上げて、ログに記録されていました。
でもそれらの不良も fixed されたような感じだったので、かつ、
/dev/sdc1 ではなくて /dev/sdc であることを知ったので、
# mount -t ext3 /dev/sdc /mnt/2TBtest でマウントし、
ログに記録されていたファイルをチェックしてみたところ、問題なし。
というわけで、一つもファイルを落とさずに、すべて復活させることができました。
何も分ってない私に最後まで辛抱強く付き合って下さった >>35 >>40 >>41 >>43 >>47 >>50 >>56 さん。
どうもありがとうございました。心から感謝いたしまする!
0059login:Penguin
2010/10/24(日) 21:16:06ID:Rb/fUwt10060login:Penguin
2010/11/08(月) 17:16:16ID:LNEsNpK20061login:Penguin
2010/11/17(水) 00:34:00ID:h5FdWL8Zミラーログのミラーができるようになっている。
0062login:Penguin
2010/11/18(木) 18:07:50ID:ffTJtUTG0063login:Penguin
2010/12/04(土) 23:48:05ID:pDcZsBny0064login:Penguin
2010/12/11(土) 19:08:38ID:gBBqZBvd起動時の同期を避けれるんだが、なにか論理的な欠点ありそう?
lvm のディスク ID とか等で loop デバイスの番号等を変えちゃ駄目とか。。。
0065login:Penguin
2010/12/15(水) 01:05:01ID:+j68kIIh> 起動時の同期
んなアホな、と思って仮想マシンで試してみたけど、
案の定、起動時の同期なんか起きない
同期が完了していない状態で再起動しているだけじゃないの?
ついでに色々テストしてみたけど、正直微妙
将来的にはZFSのDISK管理部分みたいなものを目指しているのか…?
0066login:Penguin
2010/12/18(土) 05:01:47ID:v61Hzjvn色々テストとは興味深いです。
微妙ですか。最近は、lvm には mdadm みたいな障害告知が無いので
lvm mirror はあまり意味ないかなーと思い始めてます。
ディスク追加とかボリュームサイズ変更の柔軟性は便利そうなので
将来的な期待ですか。
もっとも ZFS みたいに突発電源オフでもデータ不整合は無い
(ディスクは物理的に壊れるかも知れないが。。。)
というわけにはいかないでしょうね。
ただ lvm mirror の作業ログ自体は corelog でないならきちんとファイルで
恒久化されるので、それで問題無いというログなら同期は完了済みとして、
corelog と違い同期不要なのでは、と期待してます。根拠無いですが。。。
ソース読めば明確なんでしょうけど。。。
0067login:Penguin
2011/01/27(木) 20:09:05ID:Id/VhfNG0068login:Penguin
2011/01/27(木) 20:45:02ID:KLrZEKP40069login:Penguin
2011/01/28(金) 01:31:49ID:jVMCSyA7アロンアルファ
ひとつにくっつけたらひとつに見えるよ。
0070login:Penguin
2011/01/28(金) 16:00:42ID:Y1Km0w/gdmとmdを直接使うとか。
0071login:Penguin
2011/01/28(金) 17:12:14ID:Ogycs+5cおもろい。笑いすぎて腸捻転になった。
死にそう。助けて。
0072login:Penguin
2011/01/28(金) 17:25:45ID:KHDNulZy0073login:Penguin
2011/02/26(土) 14:02:35.83ID:dwA7g4rCPEをどんな大きさにしても、LVサイズの上限が2TB以上に
ならないんですけど、これは仕様ですかね
PEを4MBとかにするとちゃんとLVの上限が256Gになるんで
小さい方にはちゃんと計算されてるんですが・・・
0074login:Penguin
2011/02/26(土) 14:34:34.67ID:l2UEaSXlパッチはあるが2.6にしたほうが幸せになれるだろう
0075login:Penguin
2011/02/26(土) 14:53:24.78ID:dwA7g4rC>2.4はブロックデバイスが2TBまで
わーお。
2TBの壁を越えるためにLVMを考えてたんだけど
LVMで出来るのもよく考えればブロックデバイスだわな。
おれはなんて馬鹿なんだ・・・
0076login:Penguin
2011/04/20(水) 20:12:42.30ID:tflcA7cLファイルシステムを指定汁、って出たので、LVと同じext3を指定したら
そんなファイルシステムじゃねえよとかエラーが出ます…
0077login:Penguin
2011/08/01(月) 13:06:58.13ID:hqI5CB9a死んだHDDとLVがまたがっている場合、
生きてるHDDの方のデータはちゃんと取り出せるの?
0078login:Penguin
2011/08/01(月) 13:17:12.77ID:DocwGums0079login:Penguin
2011/08/01(月) 13:37:52.07ID:qR4MKau30080login:Penguin
2011/08/01(月) 20:45:22.81ID:uEVxuTwBブロックデバイスレベルではね。
その上に載ってるファイルシステムが、そういうエラー状態で
どういう挙動するかは、ファイルシステム次第。
0081login:Penguin
2011/08/01(月) 22:17:03.76ID:O6ipdY8Pこの前1台が死んだ。
新しいドライブつなげてpvmoveでエクステント移動して、
xfs_repairで救出したら・・・ある程度は救出できた(LVM全体の60%ぐらい)
残ったHDDのデータがファイルシステム上完全である保証はないから
まぁ仕方ないかなという感じ
クラッシュ怖いならバックアップしろって感じだな
地震多いしRAID程度じゃ焼け石に水だ
0082login:Penguin
2011/08/02(火) 14:51:38.94ID:+8UCuUCI前スレを読むといい
0083login:Penguin
2011/08/20(土) 03:44:59.07ID:HzylOLMkFree PEなくなってしまった。それ以降書き込みはしていないので新しくつなげたHDDにデータはないはずなんだけど、強制的に新HDDを取り外す方法はないかな?
0084login:Penguin
2011/08/20(土) 13:16:18.86ID:K4sqGdaRLiveCDで起動→vgcfgrestoreで以前の状態に戻す
(lvextendの直前 or vgextendの直前)
lvextendしただけなら問題ないはず
ファイルシステム拡張済みの場合はfsckする
0085login:Penguin
2011/08/20(土) 22:35:52.78ID:HzylOLMk今VGから1回取り外したPVを再作成して取り外したいPVから pvmove 中…
本当助かりました!ありがとう!
自分の知識じゃ思いつかなかったもんで、もう1台外からつなげて移動させようとHDD買ったのが届いてしまった…
0086login:Penguin
2012/01/23(月) 00:50:23.15ID:xQQZSV8664bit kernel 3.1.x + lvm2 な環境です。
VGこさえるときのPEサイズで、1LVの最大容量が決まる(65536PEまで)
みたいな記述があちこちにあるので、試しに
vgcreate -s1k VG /dev/sdc1
とPEサイズを1kiBにして、その上に1TiBのLV作れちゃったんだよね。
そういう仕様について、適切な記述があるとこを教えて欲しいのですが。。。
ちなみに目的は、30TiBぐらいまで拡張可能なLVを運用することです。
ソース嫁は、ちょっと勘弁してくだしあ。
008786
2012/01/23(月) 01:50:20.50ID:xQQZSV86LVM2では、事実上PEサイズの上限は無いみたいですね。1KiB〜みたいな。
PEサイズを小さくしてPE数が多くなると、ツールのパフォーマンスは下がるけどI/Oには関係ないと。
ベストバランスはどのへんなんだろう。。。
0088login:Penguin
2012/01/23(月) 22:33:03.46ID:6etnk5OQLVあたりのPE数の制限はLVM1だけだと思う
その環境だとLV1つあたり最大8EB
ttp://tldp.org/HOWTO/html_single/LVM-HOWTO/#AEN407
PEサイズはファイルシステム拡張時の最小単位ということを意識しつつ出来るだけ大きい値
30TBがゴールなら1GBぐらいでいいんじゃないの
というか、小さいPEサイズで細かく拡張とかしてたら30TB使い切る前にmetadataが溢れるような気がする
0089login:Penguin
2012/01/24(火) 12:08:35.88ID:6ilQmgvbCentOS 5.3 64bit でLVMを使用しています。
カーネルパニックを起こしていたので再起動したところ、
正常に立ち上がらなくなってしまいました。
以下、起動途中に出るエラーメッセージです。
--------------------------------------------------------------------------------------------
Red Hat nash version 5.1.19.6 starting
Reading all physical volumes. This may take a while...
Couldn't find device with uuid 'kDdyoQ-0P5f-eZkg-qt54-KMQt-Krxk-JuWVjY'.
Found volume group "VolGroup00" using metadata type lvm2
Couldn't find device with uuid 'kDdyoQ-0P5f-eZkg-qt54-KMQt-Krxk-JuWVjY'.
Couldn't find device with uuid 'kDdyoQ-0P5f-eZkg-qt54-KMQt-Krxk-JuWVjY'.
Refusing activation of partial LV LogVol00. Use --partial to override.
Couldn't find device with uuid 'kDdyoQ-0P5f-eZkg-qt54-KMQt-Krxk-JuWVjY'.
Refusing activation of partial LV LogVol00. Use --partial to override.
0 logical volume(s) in volume group "VolGroup00" now active
Unable to access resume device (/dev/VolGroup00/LogVol01)
mount: could not find filesystem '/dev/root'
setuproot: moving /dev failed: No such file or directory
setuproot: error mounting /proc: No such file or directory
setuproot: error mounting /sys: No such file or directory
switchroot: mount failed: No such file or directory
Kernel panic - not syncing: Attempted to kill init!
--------------------------------------------------------------------------------------------
RAIDを組んだりもせず、1TBx2個をLinuxインストール時にLVMで2TBとし
そこにCentOSを入れていたのですがもうアウトでしょうか。
もし復旧できそうならアドバイスお願いします。
0090login:Penguin
2012/01/24(火) 20:21:12.68ID:t4zLntmz多分、DISKの1つが見えないからボリュームグループを活動化出来ない状態
1.蓋開けてケーブルが抜けてないか確認
2.LiveCDで起動してDISKを認識するかどうか確認
→1個しかDISKが見えない場合=片方死んでる。
生きてる方のDISKのデータを部分的にでも救出したい場合(復旧は無理)、
LiveCD上からボリュームグループを無理やり活動化→論理ボリュームに対しfsck
# vgchange --partial -a y
# fsck -y /dev/VolGroup00/LogVol01
2つのDISKを跨っていたファイルシステムは激しく壊れるから期待しないほうがいい
0091login:Penguin
2012/02/02(木) 01:46:51.15ID:acQ+iR5jCentOS6でlvmを使っているのですが,grubのバージョンを0.97から1.99rcに変更をしたところ,
急に論理ボリュームが拾えなくなりました(ルートが論理ボリュームのためカーネル機動できず…).
linux rescue(kernel 3.0, amd64)等からlvm.confでsdaを探索範囲に指定しpvscanを実行しても
No matching physical volumes found
というエラーが戻ります(-vvvオプションで/dev/sdaは探索は確認されました)
せめてホームディレクトリだけでも復旧したいのですが,
そもそもpvscanの段階で物理ディスクが認識されないため手も足も出ない状態になっています.
環境は以下の通りですので,わかる方どなたかご助言下さい.
(fdisk実行結果に基づく)
/dev/sda MBR partition
Device Boot Start End Blocks Id System
/dev/sda1 * 63 208844 104391 83 Linux /boot ext2
/dev/sda2 208845 1953520064 976655610 8e Linux LVM
- /dev/VolGroup01/LogVol00 / ext3
- /dev/VolGroup01/LogVol01 swap
0092login:Penguin
2012/02/02(木) 15:46:34.53ID:woypY+8F0093login:Penguin
2012/02/06(月) 18:52:51.59ID:qiNYEPFmramdiskから毎回lvchange -ayを用いてactiveにしないと使えない症状になっています.
恒久的にactiveを保つ手法等はないでしょうか?
0094login:Penguin
2012/02/07(火) 00:26:40.04ID:hGIDJLQxactiveにした状態でinitial ramdiskを作り直せばいんじゃね?
009593
2012/02/09(木) 00:23:32.14ID:N4oXKZvyactive状態で/etc/fstab, 多分関係ないけど/etc/lvm.conf等を書き直してramdisk作り直しましたが,
どうしてもだめなようです……
0096LVMer
2012/03/16(金) 13:32:14.62ID:QZlg1TZYLVMで新しいlvを作成する際、virtualsizeを指定することによって仮想的に
大きなディスク領域を作成できるかと思います。
こんな感じで。
# lvcreate -L 100M --virtualsize 1G -n virtual myvg
これで、1GBのディスク領域が作成されました。
ただ、この手法で作成したvirtualというLVのsnapshotが取れず困っています。
# lvcreate --snapshot --size=1G --name virtual-snap /dev/myvg/virtual
Snapshots of snapshots are not supported yet.
スナップショットのスナップショットが取れないという事なら仕方ないのですが、
何か妙案は無いものかと、諸兄にご相談です。
参考までに、dmsetup lsの結果です。
# dmsetup ls --tree
zero (253:27)
myvg-virtual (253:203)
|-myvg-virtual-cow (253:206)
| `- (8:1)
`-myvg-virtual_vorigin-real (253:205)
myvg-virtual_vorigin (253:204)
`-myvg-virtual_vorigin-real (253:205)
0097login:Penguin
2012/06/23(土) 00:43:25.61ID:FmTOq4ex0098login:Penguin
2012/06/23(土) 22:53:33.42ID:hwFJJwfF0099login:Penguin
2012/06/23(土) 23:05:48.20ID:ojVDqtPu既にある機能だから、ドッグフードイーターがどれほど居るか怪しい気がしてね。
0100login:Penguin
2012/06/24(日) 20:58:10.20ID:QFLYadGWCentOS5.6で、最初2TBのディスク1本だけをLVM管理にしてたんですが、
最近容量が足りなくなって2.5TBと3TBを追加しました。
普通に、pvcraete -> vgextend -> lvextend -> xfs_grow と作業して、
問題無く容量が増えたんですが、いろいろなファイルをコピー・移動して
いる最中に、3.4?TBくらいでOS側から容量不足のメッセージが出るように
なってしまいました。
2TBは確実に超えてコピーできるし、アクセスランプも光るので、新しい
ディスクが利用されているのは確かなんですが、全容量が使えないのは
何故なんでしょうか?
最初にあまり考えずにLVM設定したので、PEを4MBで作成してしまったん
ですが、>>88に書いてある「metadataのあふれ」が気になっていますが、
確認ってどうやるんでしょうか?syslogやmessagesに関係のありそうな
ログが見つからんし…
FSはXFSにしてるので、純粋な容量制限やiノードの制限ではないと
考えているのですが、何かご存じの方がいたら教えてください。
0101login:Penguin
2012/06/24(日) 22:12:30.23ID:mnCaBf0J>>96
> スナップショットのスナップショットが取れないという事なら仕方ないのですが、
できないってマニュアルに書いてある
>>100
metadataの状況は
# pvs -o pv_name,pv_mda_size,pv_mda_free
0102login:Penguin
2012/06/24(日) 22:37:02.00ID:ftytyYyeinode64
0103login:Penguin
2012/06/24(日) 23:20:12.46ID:QFLYadGWありがとうございました。
メタデータは、各PVとも半分くらいFreeだったので、
あふれているわけではなさそうですね。
>>102
ググってみたのですが、そんな罠があったとは…
最初の2TBディスクがほぼほぼフルに到達したので、今回の
ディスク増設をしたのですが、先頭1TBを使い切ってしまい、
iノード用の領域が不足しているということなんでしょうね…?
これって、LVM側でなんらかの方法でデータを各ディスクに
分散させても、解決しないですよね、多分?
XFS内部の論理的なデータ配置?が改善されないと、状況が
改善されそうに無い気がしてきました。
そうなると、LVを縮小&分割して、別パーティションとして
マウントしたほうが安全なのかな…?
とりあえず、XFSについてもうちょっと調べてみます。
0104100
2012/06/26(火) 12:40:28.03ID:799922Yy32 Q: Why do I receive No space left on device after xfs_growfs?
http://xfs.org/index.php/XFS_FAQ
"A complete dump and restore will also fix the problem ;)"が一番
確実そうなので、なんとかディスクを確保してからダンプ&リストアを
やってみようかと思います。
0105login:Penguin
2012/07/24(火) 12:52:56.28ID:bDHiFXoZこういうときはどうしたらいいんだ……?
0106login:Penguin
2012/12/28(金) 23:10:09.51ID:lvAIupHmhttp://sourceforge.jp/magazine/12/12/25/2155242
■ このスレッドは過去ログ倉庫に格納されています