トップページlinux
984コメント371KB

RAID総合スレッド No.4

■ このスレッドは過去ログ倉庫に格納されています
0001login:Penguin2008/04/15(火) 21:49:14ID:Ve/x9iF4
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう

スレ 1 http://pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 http://pc10.2ch.net/test/read.cgi/linux/1111348512/
スレ 3 http://pc11.2ch.net/test/read.cgi/linux/1168487758/

Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.co.jp/product/raid/os_support_list.html

Linux EVMS 一般
ttp://www-6.ibm.com/jp/developerworks/linux/021220/j_l-fs12.html
ttp://evms.sourceforge.net/

... あと続けてくらさい。
0202login:Penguin2008/07/21(月) 16:02:45ID:bfdmMxFQ
>>201
消費電力が2倍
コピー中に更新があると整合性がなくなる
帯域を制限しないとコピー中のHDDの負荷が高く業務に支障を来す
複数世代のバックアップを残せない
RAID1に対するメリットがほとんど無い

素直にRAID1にして
バックアップは外付けにtarか何かでとるほうがいい

>また、RAID0/5/JBODのアレイを2つ作って定期rsync運用はさすがに無謀でしょうか?
RAID10でいいんじゃないの?
0203login:Penguin2008/07/21(月) 19:20:08ID:Kok+C1hM
>>202
お題目はおなかいっぱい。
個人用だと書いてあるだろ?

>消費電力が2倍
ディスクだけが2倍なのに、どういうロジック?

>コピー中に更新があると整合性がなくなる
>帯域を制限しないとコピー中のHDDの負荷が高く業務に支障を来す
個人用だから、そういうのを自分で避ければいいだけ。

>複数世代のバックアップを残せない
複数世代ってなにに使うんだよ。実際に使ったことあるのか。
0204login:Penguin2008/07/21(月) 19:53:45ID:eDgO9JCd
理想を言えばRAIDハードウェアのスナップショットを利用して
別のRAIDグループへコピーが一番安心できる
問題はそのようなハードウェアは日立とかEMC、富士通とかになること
0205login:Penguin2008/07/21(月) 21:51:52ID:r1tueaXR
>消費電力が2倍
回転止めたらいいんじゃないの? 馬鹿なの?

>コピー中に更新があると整合性がなくなる
スナップショット使わない理由がわからない。馬鹿なの?

>帯域を制限しないとコピー中のHDDの負荷が高く業務に支障を来す
オプション1つで制限できるんだからすればいいじゃない。馬鹿なの?

>複数世代のバックアップを残せない
複数世代のバックアップを残せるソフト使えばいいじゃない。馬鹿なの?

>RAID1に対するメリットがほとんど無い
それのどこがリスクなの?馬鹿なの?
0206login:Penguin2008/07/21(月) 22:45:34ID:+Von4bjZ
また心の問題ですか
0207login:Penguin2008/07/22(火) 05:33:29ID:FG3KF+O+
>アレイを2つ作って
に対して
>>RAID10でいいんじゃないの?

と書いてあるので何も分かってないようですね
0208login:Penguin2008/07/22(火) 07:00:34ID:IDlKlKUZ
>>202がフルボッコにされててワロス
0209login:Penguin2008/07/24(木) 22:55:47ID:Y/yDJ5QP
>>207
>>202 は業務とか書いてるしな。
質問を理解せずにどっかからコピペしたのかも。
0210login:Penguin2008/07/25(金) 18:22:23ID:7bWPoJgN
こんな記事がでたぞ〜

ハードウェアRAIDとLinuxカーネルによるソフトウェアRAIDのベンチマーク比較
http://www.itmedia.co.jp/enterprise/articles/0807/23/news016.html
0211login:Penguin2008/07/25(金) 22:05:00ID:dHu8XFEz
>>210
お前は10個上のレスすら読めんのか
02122102008/07/25(金) 22:55:25ID:7bWPoJgN
あー、同じなのか…
単にベンチマークしか書いてなかったから、スルーしてた…OTZ
0213login:Penguin2008/08/04(月) 13:46:13ID:jBaI/IVg
性能分析のお供に
http://opentechpress.jp/developer/08/08/04/0134256.shtml
次回の方が役に立ちそうだけど
0214login:Penguin2008/08/07(木) 08:00:07ID:RuVT+4E9
1TのHDD6台買ってきたんだがRAID6にするか5にするかで一晩悩んだが結論が出なかった。
0215login:Penguin2008/08/07(木) 12:45:30ID:gou1IcwA
とりあえず6面RAID1にしておいて慣らし。
満タンになったら、その時にまた考えるってのはどうだ?
0216login:Penguin2008/08/11(月) 00:33:45ID:lkIu9a0L
/をxfsにするいい方法はありませんか?

OSはcent5.2です。
0217login:Penguin2008/08/11(月) 00:41:08ID:QeT4W3NU
>>216
スレ違い。
http://pc11.2ch.net/test/read.cgi/linux/1214823867/731
0218login:Penguin2008/08/11(月) 01:28:58ID:lkIu9a0L
>>217

>>185
が書いていたので。
0219login:Penguin2008/08/11(月) 18:36:11ID:AGF2t4QA
>>218
見苦しい言い訳だな
0220login:Penguin2008/08/12(火) 16:41:20ID:jyLw7NZh
>>216
CentOSならそっちのスレで聞いてみたらいいんじゃないか?
ぶっちゃけRAID関係もよっぽど詳しい人がそろってるしw
0221login:Penguin2008/08/12(火) 16:56:10ID:YIDfUhGW
>>220
もう聞いてるみたいよ。>>217
0222login:Penguin2008/08/12(火) 17:11:26ID:IDhTWp2o
/**ファイルシステム総合スレ その8**/
ttp://pc11.2ch.net/test/read.cgi/linux/1190788761/

回答があるかわからんけど、マルチな質問はちゃんとクローズレスして、もう一度きいたら?
0223login:Penguin2008/08/14(木) 18:37:41ID:rw0zL6g/
質問なのですが、raidtoolsで作成したボリュームは、mdadmにソフトウェアRAIDを
変更した場合、そのまま使えるのでしょうか?
要するに、raidtoolsとmdadmのデータ構造の互換性の問題なのですが。
一旦バックアップを取って、RAID構成後に書き戻す必要がありますか?

「raidtools mdadm 互換性」などとぐぐってみたのですが、答えを見つけられませんでした
0224login:Penguin2008/08/19(火) 01:07:45ID:8EwaAh3C
実際にやってみればいい。
VirtualBoxなりVMWareなりの仮想環境を入れれば楽勝
0225login:Penguin2008/08/25(月) 15:26:56ID:A4bL2852
ポートマルチプライヤ・ハブを使ってRAID5で使っていたが、
ハブが(熱?)故障したらしく現在、別環境でリペア中…
後10時間ほどかかるらしい。終わったらバックアップとっとこ。
0226login:Penguin2008/08/25(月) 18:46:19ID:hmNDIIPy
あれはメチャ熱くなるよ
0227login:Penguin2008/09/01(月) 05:30:02ID:FJQeXGzD
並列ランダムリード重視したいんだけど、
RAID5 <= 単体 <= RAID10 < RAID1+LVM
って理解であってる?
0228login:Penguin2008/09/01(月) 15:30:06ID:URN2jkvk
どれも実装次第じゃないの?
大抵は全部単体より速くなると思うが。
0229login:Penguin2008/09/01(月) 19:19:46ID:FJQeXGzD
>>228
じゃあ、さしあたりmd限定で。
で、その大抵が通用しないのがランダムアクセスだったりするわけで…
0230質問ノ2008/09/02(火) 00:26:54ID:+OCnqEcR
RAID0って、データを複数のHDDに分散して同時に記録するから
早いのですよね?
ということは、1台のHDDで、データをフラッタごとに分散して同時
に記録したら、すごく早くならないのかなぁ?
フラッタ5枚のHDDなら5倍???
0231login:Penguin2008/09/02(火) 00:53:44ID:svkuPaeg
ReadもWriteも早いのか?
0232login:Penguin2008/09/02(火) 00:58:11ID:3FnQIo0B
シーケンシャルオンリー(かつ大昔のHDDのテクノロジ)ならね。
ランダムアクセスだと1台に集中することでかえって遅くなる。
今のHDDはプラッタ毎にヘッド位置調整をするために同時アクセスは難しいし、
5倍に速くなってもインタフェースの転送速度が追いつかない。
0233理解!2008/09/02(火) 01:06:27ID:+OCnqEcR
なるほどねぇ
インターフェースが追いつかなきゃ意味ないですね^^;
ごもっとも^^
0234login:Penguin2008/09/02(火) 05:45:29ID:JL3ZUwv4
ソースを読むほどのスキルはないんだけど、未だにRAID1で読み取り性能だけ2倍にする方法は解明されてない?
相変わらずmanpageに書いてあることとは違うままなのかな。
0235login:Penguin2008/09/02(火) 08:50:52ID:xIov+WO6
性能がスループットという意味なら倍になるよ。
CPUが2つでプロセス2つで読んでればだけど。

読み出しロジックは読み出し処理を2つのディスクに並列分散させるのではなく、
単に空いているorヘッド位置が都合がいい方のディスクを選択するだけだから
あるプロセス1つから見たら別に速くなるわけではなさそう。
0236login:Penguin2008/09/02(火) 17:54:33ID:JL3ZUwv4
あのmanpageに書いてあることは、そういうことだったのか!?
だったらmanpageにもそのように書いてくれればいいのにねぇ。
ネット上でも、たまに悩んでいる人がいるし。
0237login:Penguin2008/09/03(水) 09:36:58ID:GOWpJIT8
ソース見ると、こういうことだべ。

2.6.18のraid1.c
* This routine returns the disk from which the requested read should
* be done. There is a per-array 'next expected sequential IO' sector
* number - if this matches on the next IO then we use the last disk.
* There is also a per-disk 'last know head position' sector that is
* maintained from IRQ contexts, both the normal and the resync IO
* completion handlers update this position correctly. If there is no
* perfect sequential match then we pick the disk whose head is closest.
*
* If there are 2 mirrors in the same 2 devices, performance degrades
* because position is mirror, not device based.
*
* The rdev for the device selected will have nr_pending incremented.
*/
static int read_balance(conf_t *conf, r1bio_t *r1_bio)
0238login:Penguin2008/09/03(水) 10:31:37ID:E4hwRJkf
1ビットだか1バイトずつ交互に読み書きするから読み書き2倍ってのは嘘か
0239login:Penguin2008/09/03(水) 19:50:17ID:Yeu4fcGq
raid5=raid0<raid1
程度だと思われるが実装によって逆転する。
0240login:Penguin2008/09/03(水) 21:37:57ID:xUNUra92
>>234-236
裏技と言うほどのことじゃないけど、それを実現したいなら、

mdadm -C /dev/md0 -l 10 -p f2 -n 2 /dev/sda1 /dev/sdb1

こうやって、2 台だけで RAID10 を組んでみたら?
きちんとミラーリングされた上で、読み取り速度は
シングル スレッドでも 2 倍になるよ。
0241login:Penguin2008/09/04(木) 00:12:57ID:B1PfYM1l
234が想定アクセスパターンを言わないと何の議論もできんと思われ
並列アクセスするプロセス数と、ランダム・シーケンシャルの別、それからリード・ライト比率
0242login:Penguin2008/09/04(木) 00:58:57ID:UTrxmu/B
>>241
じゃあ極端な例ということで、100MB/sのシーケンシャルI/O性能を持つHDD2台のRAID-1で

 1.1プロセス、シーケンシャルリード100%の場合
 2.2プロセス、片方シーケンシャルライト、片方シーケンシャルリード100%の場合

この場合に期待できる

 a.各プロセス単位でのリード性能(MB/s)
 b.計算機全体で達成されるリード性能(MB/s)

はおおよそどうなる?2プロセス時はI/O時間が均等に回ってくるとして。

争点は1aが100MB/sなのか200MB/sなのか、2bが100MB/sなのか
150MB/sなのかということかと思うが。

0243login:Penguin2008/09/04(木) 19:35:51ID:B1PfYM1l
アクセス単位とかスケジューラでとんでもなく変わるだろうけど、とりあえず計算
つっこみよろしく

1a 並列読み出し (α)27.2MB/s (β)100MB/s (γ)200MB/s 片ディスク読み出し 100MB/s
2b 2.56MB/s

仮定として、
RAID1
7200rpm 平均シークタイム 8ms
noopスケジューラ
ファイルシステムを考えない(メタデータ読み書きがない)
mdドライバのリクエスト振り分けは理想的
リード・ライト対象領域はそれぞれ連続
各プロセスのアクセス単位64KB

1aα アクセス単位ごとに回転待ちが発生する場合
1000ms / (回転待ち 4.17ms + データ読み出し 0.655ms) * 64KB * 2 = 27.2MB/s

1aβ 2つのディスクの回転角が一致している場合には回転待ちは省略できるが、
次の目的セクタに行くまでの回転時間は両ディスク同じなので結局変わらない。

1aγ 2つのディスクの回転角がそのトラックでのアクセス単位分だけずれている場合
リードリクエストが来た瞬間にヘッドが目的セクタ上にあるので回転待ちも省略可能

2b 片ディスク読み出し
書きこみオペが来ると両ディスクが書き込み先までシークする必要がある。
1aβ/γのように回転待ちの省略が期待できないので
1000ms / (読み 0.655ms + シーク8ms + 回転待ち4.17ms + 書き 0.655ms + シーク8ms + 回転待ち4.17ms) / 64KB = 2.56MB/s
0244login:Penguin2008/09/04(木) 19:48:19ID:B1PfYM1l
すまん、1aβ変なこと書いてる…

1aβ リード完了地点からアクセス単位分だけ先に次の目的セクタがあるので、
回転待ちは最小限で済むが、一方の回転待ち時間=他方の読み出し時間なので結局変わらない。

で。
0245login:Penguin2008/09/04(木) 23:56:09ID:WdYxWaI1
1TB*4でraid組みたいのですが、raid5にするのと、raid1にするのでは
どちらが生存性が高いでしょうか?
現状では500GB*2でraid1を組んでいます。
0246login:Penguin2008/09/05(金) 02:43:09ID:/T+bWScm
RAID5は1台の破損まで復旧可能で3TB利用可能
RAID1だと1台の破損まで復旧可能で1TB利用可能なドライブが2つ
確率だけでいえば当然RAID1


RAID10だと1台の破損は復旧可能、2台の破損はミラーしてるペアでなければ復旧可能で2TB利用可能
0247login:Penguin2008/09/05(金) 04:45:32ID:1sBBnm+4
>>245
RAID5だと再構築時にアレイの他のディスクにアクセスしに行くから
負荷も危険性も上がる。RAID1なら対となるディスクのみアクセス。

243-244だけど、1aαも1aγも実際にはまず起こらないだろうから
1プロセスで同じ領域を読む限り、1aについては100MB/sでFAかと。
0248login:Penguin2008/09/05(金) 04:56:12ID:GrlZSlCm
FA(笑)
02492452008/09/05(金) 06:16:01ID:aZwTzuar
>>246,247
速度は気にしていないので、raid1で組むことにします。
ついでなので1TB*6で3TBにする事にします。
ありがとうございました。
0250login:Penguin2008/09/05(金) 10:34:09ID:2aSQ8pMt
mysqlのマスターのためにはどんな構成がよいですか?
今は高速回転のディスクでにRAID1にしてます。
0251login:Penguin2008/09/05(金) 13:29:39ID:1sBBnm+4
そういや3台以上でRAID1組むと3台以上に分散してくれるんだろうか
並列ランダムリード中心ならうまいことレイテンシ隠蔽できそうだけど
0252login:Penguin2008/09/06(土) 16:52:55ID:mklTZhL5
>>250
メモリ山ほど積んでオンメモリインデックス
それかSSD
0253login:Penguin2008/09/07(日) 01:22:02ID:AQmY2t2w
>>240
そんなことができるのか。知らんかった。
確かにhdparmでは2倍になってるし、片方のHDDを外してもデータに問題はなかったから、
ミラーリングもされてるみたいね。
RAID10って時点で絶対に4台必要なんだと思って、考えたこともなかったよ。
0254login:Penguin2008/09/07(日) 02:08:53ID:dwiRmWpQ
2台のRAID10って一体データはどういう風に乗ってるんだ?
0255login:Penguin2008/09/07(日) 02:52:54ID:AQmY2t2w
>>254
240氏のやり方だと、RAID10ってのはあくまでも名前だけで、
実際は234氏が言ってるような読み込みだけが速いRAID1状態になってる。

書き込みは単体のときと(たぶん)同じ速度。読み込みは約2倍。
で、1台外してもデータには問題なくて、そのときは読み込みも単体と
同じ程度の速度に落ちる、って感じ。

実際のHDDにどうやってデータが書き込まれているのかは、俺にはわからん。
0256login:Penguin2008/09/07(日) 09:00:17ID:3IVMMvgf
>>255
man md
0257login:Penguin2008/09/09(火) 10:43:41ID:XWIPazgz
[root@puchiko root]# cat /proc/mdstat
Personalities : [raid5] [raid4] [raid1]
md2 : active raid5 sdc1[3] sdd1[2] sdb1[0]
490223232 blocks level 5, 32k chunk, algorithm 2 [3/2] [U_U]
[>....................] recovery = 0.0% (118528/245111616) finish=275.4min speed=14816K/sec

md1 : active raid1 sde1[2] sda1[0]
199141632 blocks [2/1] [U_]
[>....................] recovery = 0.4% (991424/199141632) finish=123.3min speed=26775K/sec

md3 : active raid5 sdl1[3] sdk1[2] sdj1[1] sdi1[0] sdh1[4] sdg1[6]
2441919680 blocks level 5, 32k chunk, algorithm 2 [6/5] [UUUUU_]
[>....................] recovery = 2.8% (13738880/488383936) finish=421.5min speed=18766K/sec

unused devices: <none>

豪勢にリカバリー中・・・コケないことを祈る
0258login:Penguin2008/09/09(火) 10:53:35ID:a8VHVsbk
  .: + ...:.    ..:...:.. :. +
  . ..: .. .   + .. : .. .
  ..  +   ..:.  ..  ..
 +     :.     .  +..
  .    : ..    +  .. .
  .. :..    >>257  ..
  .    +   |: |
          |: |
      .(二二X二二O
          |: |    ..:+ ..
     ∧∧ |: |
     /⌒ヽ),_|; |,_,,
_,_,,_,〜(,,  );;;;:;:;;;;:::ヽ,、
"   "" """""""",, ""/;
 "" ,,,  """  ""/:;;
 ""   ,,""""" /;;;::;;
0259login:Penguin2008/09/09(火) 22:05:16ID:XWIPazgz
終了したよ! sdcが壊れててmd2はRAID1にしたけど。。。
md3はRAID6にするべきではないか考え中。チラ裏スマソ
0260login:Penguin2008/09/10(水) 04:30:01ID:wQXa/rnK
おつ
0261login:Penguin2008/09/10(水) 21:04:02ID:6XTL7ehC
いまフツーにRAID1してるんですけど、
単体のSSDに替えたら信頼性はUp?Down?
答えが出ないので教えてください

IntelのSSD良さげですよね
0262login:Penguin2008/09/10(水) 21:23:58ID:mTxqzEnL
>>261
既存のHDD RAIDをSSD RAIDにしたらどうなるかってこと?
単純にMTBF比較であればHDDが市販のもので60万時間程度、
SSDが200万時間程度なので、信頼性は上がるだろう。

とはいっても確率論だが。
02632612008/09/10(水) 21:36:09ID:6XTL7ehC
HDD RAID1→SSD1個非RAIDです。

数字上は信頼性ちょいアップだけど...
何万台も運用するわけではないので運次第ってとこですかね?

0264login:Penguin2008/09/10(水) 22:39:23ID:mTxqzEnL
>>263
運の要素が大きいだろうな。
HDDだとクラッシュの危険があるし、SSDだと書き込み回数の制限がある
(ある程度は散らしているが確実なものではない)。
0265login:Penguin2008/09/11(木) 13:52:38ID:t86QBmcU
>>262
> 単純にMTBF比較であればHDDが市販のもので60万時間程度、
> SSDが200万時間程度なので、信頼性は上がるだろう。

あれ?
HDDの方はRAID1なんだから
「60万時間程度」が同時に二つ壊れる可能性との比較になるよね。
HDD RAIDの方が信頼性上なんじゃない?
正確な計算法が分からんけど。
0266login:Penguin2008/09/11(木) 13:54:54ID:czapuPka
SSDもRAIDじゃないのか?
0267login:Penguin2008/09/11(木) 19:45:48ID:x4yKwbl5
>>266
>>261を声に出して100回読め
02682662008/09/11(木) 22:53:18ID:czapuPka
ごめん、262しか読んでなかったorz
0269login:Penguin2008/09/12(金) 21:58:14ID:AhnXV+bh
教えてください。

dmraidで作ったRAIDデバイスと、
フツーにLinux上で作ったソフトウェアRAIDって性能は一緒だよね?

dmraidってのは(Intel Matrix Strageみたいな)BIOSで作ったRAID情報を読み取って、
LinuxソフトウェアRAIDを自動的に構成するツールだと考えてるんだが、この理解は正しい?

あとdmraidで構成したRAIDデバイスが壊れたときは、BIOSで修復かけてもいいのでしょうか?
0270login:Penguin2008/09/13(土) 05:43:54ID:yFc3xM/P
mdとdmraidの性能比較みたいなページがないか検索してみたらいいよ
0271login:Penguin2008/09/13(土) 16:57:51ID:LK2wbKHe
>>264
フラッシュ寿命問題って、単に代替セクタ機能でカバーできるんじゃないの?
当然書き込み先を散らすといった手立てをした上での話だけど。

同じく疲労するDVD-RAMとかだって似たような対策打ってるんだから、
よほど書き込みアクセスが反復する用途でない限り大丈夫なんじゃないかと。
0272login:Penguin2008/09/13(土) 17:50:12ID:ch1kjtqk
書き込み分散とかセクタ代替も込みで製品としてのMTBF出してるだろうから
外から見る限り、書き込み分散とかセクタ代替機能は特に考慮しなくても問題ない

…というのが理想なんだけど、
書き込み分散方式とアクセスパターンとの兼ね合いがあるだろうからなあ
0273login:Penguin2008/09/14(日) 16:09:17ID:aCb6t4HK
>>269
dmraid知らんけど、互換性があるなんて聞いたことないな。

ttp://sourceforge.jp/magazine/05/03/17/0923219

ここのを読むとプロプライエタリなソフトRAIDに対してのラッパーみたいなもの?
mdadmとはあまり関係なさそうな。
0274login:Penguin2008/09/14(日) 22:01:49ID:IYFhfqhh
まあラッパーでいいのかな。BIOS(RAIDカードとかの)で切った
RAID構成のパラメータをLinux側に取り込んでそのまま扱えるようにする
わけだから。

こうするとRAID構成の一部はLinux、別の部分はWindowsみたいな
共存ができるけど、そういう部分切り出し利用しないならOS側の
ソフトRAID機能を使った方がいいというのは百万回くらいいわれてる通り。
0275login:Penguin2008/09/14(日) 23:38:16ID:JSPVgMYR
> 百万回くらいいわれてる

暇なときでいいんで、リストくれ
0276ヒャクマンハウソ、スマソ2008/09/15(月) 11:53:48ID:a7BuBquH
>>275
リストを出すのは簡単なのだが、2ちゃんのスレはあまりにも
容量が厳しすぎるので勘弁してください mOm
0277login:Penguin2008/09/15(月) 16:04:26ID:gKAquFIw
>>276
ここに貼り付ける必要なくね。
圧縮してどこかのアップローダに置いて、ここには URL 一行書けばいいよ。
0278login:Penguin2008/09/19(金) 05:28:28ID:BR3MquqB
>>225-226
サウスのヒートシンクが貧弱なマザーなら、サウスが熱でやられる。
サウスを冷やせ。
側面にファン取り付け穴が二つ開いてるケースなら、下の方だ。
0279login:Penguin2008/09/20(土) 12:32:05ID:2jxpiAok
HDD RAIDの仕組みがよく分からないのですが、
例えば、RAID1で500GBで組む、
とした場合、
この500GBと組んだ、という情報は
RAIDカードのみが認識することになるんでしょうか?
(HDD自体には特にRAID云々の情報は書き込まれない?)

現在500GBでRAID1組んでいて、1TBに変えたのですが、
ユニット拡張機能がRAIDカードについていないため、
500GBで認識されてます。

この場合、
一旦関係ない1TB載せて、再度RAID1組んで、
(RAIDカードに1TB情報載せて)
関係ない1TBをはずして、500GBと認識されてた1TB HDDを
載せれば、拡張目的果たせるんでしょうか?

ちなみに3wareの8006-2lp使ってます
0280login:Penguin2008/09/20(土) 15:56:49ID:9fflWZZq
>>279
ふつうはRAIDに関する情報をハードディスクのどこか(ふつうはディスクの先頭などの
固定の場所)に書き込む。そうでないものもあるにはあるが。

ユニット拡張機能とやらが何なのか知らんが、3wareのユーティリティなどで
できるのではないか。
02812792008/09/20(土) 16:39:03ID:2jxpiAok
>>280
うわーーー
おっしゃるとおりですね。
試してみましたが、だめでした。

ユニット拡張は、
いわゆるRAIDカードが構築した論理?ドライブを
実際のディスク容量に拡張するものです。
現在はRAID1作成時のディスク容量で実HDD容量ではないので
それを実HDDの容量に補正したいわけですが、
3wareのCLIでは無いよう何です(汗


何か代替方法ないでしょうか・・・。
02822792008/09/20(土) 19:18:27ID:2jxpiAok
結局HDDにRAID情報が書き込まれてるんで、
別HDDへ、ddやコピー系でコピーしてもダメポなんですよね・・・

ああ激しく鬱だ orz
0283login:Penguin2008/09/24(水) 10:25:25ID:NY4tqg7z
mdadm -Aで無理やり起動したら
failed to RUN_ARRAY /dev/md0: Input/output error
これってどういう事……汗
0284login:Penguin2008/09/24(水) 15:31:23ID:3ffijfuO
コンポーネントデバイスがご臨終
0285login:Penguin2008/09/25(木) 21:02:44ID:LfvtnWd8
RAID5におけるresyncについて教えてください

debianで構築したGLANTANKにUSB接続で6台のHDDでRAID5を構築していました。

帰宅したところHDDに頻繁にアクセスしているのでtelnet接続したところ、下記のような状況でResync状態にあるようです。
fumifumi@GLANTANK:~$ sudo cat /proc/mdstat
Password:
Personalities : [linear] [raid0] [raid1] [raid6] [raid5] [raid4]
md1 : active raid5 sda1[0] sdf1[5] sde1[4] sdd1[3] sdc1[2] sdb1[1]
1562842880 blocks level 5, 64k chunk, algorithm 2 [6/6] [UUUUUU]
[>....................] resync = 4.3% (13630588/312568576) finish=2230.8min speed=2232K/sec

md0 : active raid1 hdb3[1] hda3[0]
77649600 blocks [2/2] [UU]

この状態でmd1のデータは無事に復旧しますでしょうか?
残り一日以上かかりそうですが、完了時にはデータが空っぽにならないか心配です。

ちなみにdfコマンドでは
/dev/md1 1538319916 1457990512 2187260 100% /share/usb
と表示されており、昨日までの使用状況とは変わっていません。(現時点では。。)

/shaer/usbにアクセスしようとしても反応がない状況です。
どんどんデータが開放されているのでしょうか?

力量不足で情けないですが、このまま待つのがよいのか?データは保持されるのか?
アドバイス・ご教示お願いします。

ps.resyncとrebuildはちがいますよね?
0286login:Penguin2008/09/25(木) 22:29:45ID:hqNskNnF
((((´д'))))
0287 ◆Zsh/ladOX. 2008/09/25(木) 23:03:20ID:uxBh3s9z
待つしかない。
(rsync中も遅いだけで使えた稀ガス)

反応が無いって
cd /share/usb
しても
・cdが成功しない
・cdはできるがその後lsとかでコマンドの反応が無い
ってこと?
0288login:Penguin2008/09/25(木) 23:43:29ID:LfvtnWd8
>>287

早速のレスありがとうございます。

cd /share/usbに反応しませんでした。
プロンプトに戻ってこなかったです。

先の書き込みをした後は
sudo cat /proc/mdstat
にて状況を見ていたのですが、先ほど急にtelnetが切断して接続不能になりました。
#resync中でも再起動可能とのことだったのでsudo reboot等試みましたが、リブートはしませんでした。
それ以外はmdstatしたりdfして状況を見てました。

telnet接続できない現在でも、USB接続のHDDには相変わらずアクセスし続けているので、引き続きresyncは実行されているようですが、pingも利かない状態におちいってます。
GLANTANKのパワー不足?かもしれません。

繰り返しで申し訳ないですが、データは無事と思ってよいでしょうか?
その他書き込みした事項以外で確認すべきことがあればアドバイスください。
返答よろしくお願いします。

敬具
0289 ◆Zsh/ladOX. 2008/09/26(金) 00:02:45ID:uxBh3s9z
>>288
まず、データは無事です。
> GLANTANKのパワー不足?かもしれません。
現状はこれかな。


最近のintelとかAMDのマザー(チップセット)だとUSBが6つ以上あるから
そのPCにHDDを6台接続してresyncした方が良い鴨
(USBのHDDを6台USBハブ経由とかでGRATANKに繋げていると仮定)
0290 ◆Zsh/ladOX. 2008/09/26(金) 00:11:25ID:D+db+I6m
あーでも今GRANTANKシャットダウンできないのか。
電源ボタンぽちしてシャットダウンしたりするのかなぁ。
どうすっぺねぇ
0291login:Penguin2008/09/26(金) 00:19:03ID:7oAA51Rx
>>289

> まず、データは無事です。
ありがとうございます。気長に待つことにします。
先の書き込みでお分かりのように大事なデータや怪しいデータなどなど目いっぱい詰め込んで快適につかっていたのですが、初トラブルで、心配です。
希望が出てきたので、おとなしく観測します
#容量いっぱいなので、入れ替えながらかつかつ運用です。。

> > GLANTANKのパワー不足?かもしれません。
> 現状はこれかな。
やはりそうでしょうか。外部アクセスを拒絶してしまってます。
先ほどまでworkhroupにいたGLANTANKがいなくなってますし、resyncに専念してしまっているのかな?
なんとかがんばってくれぇ>SH
#感情的で申し訳ないです。こういう時ほど落ち着いて対処ですよね

> 最近のintelとかAMDのマザー(チップセット)だとUSBが6つ以上あるから
> そのPCにHDDを6台接続してresyncした方が良い鴨
いまさらこのようなことが可能なのでしょうか?
リブートできない状況ではリスクが大きいかと。。
どちらにしてもLinuxな環境がないので乗り換えは厳しいです。

> (USBのHDDを6台USBハブ経由とかでGRATANKに繋げていると仮定)
説明不足ですいません。
6台はい〜るに6台のHDDを詰め込んでますので使用UBSポートは1つで大丈夫です。
#それにしてもなぜ?このような状態に。。。

有益なアドバイスいただきありがとうございました。
何か思いつかれたら、また返答いただければ幸いです。

敬具
0292 ◆Zsh/ladOX. 2008/09/26(金) 00:35:12ID:D+db+I6m
> どちらにしてもLinuxな環境がないので乗り換えは厳しいです。
CDブートのlinuxを使えば良い。
が、どっちにしろgrantankを上手く落とせた場合の話になってしまうけど


ではもう寝るので健闘を祈ります。
0293login:Penguin2008/09/26(金) 00:52:55ID:7oAA51Rx
>>292

いろいろお世話になりました。

とりあえず現状のまま様子をみます。

夜遅くまでお付き合いいただきありがとうございました。

敬具
0294login:Penguin2008/09/26(金) 11:36:30ID:UHMIOaKO
>>293
resyncはRAID構築時と同じ速度がでないと変だと思うんだけど、構築時もそんなに遅かったの?
WD10EACS-D6B0 x 4でRAID5を使ってるけど、80MB/secから最終的に40MB/secに落ちる程度の速度は出るよ。
どれかのHDDが壊れかけで足引っ張ってたりするんじゃないかと想像するんだけど。
dmesgとかsmartを確認した方が良さそう。

あと、あんまりかつかつまで使わない方が良いと思うよ。
環境依存かもしれないけど、2.7TB中50GB程度空きになった状態で何度かフリーズを経験してて、
空きが結構ある状態では一度もフリーズしてない。
(OS:Fedora9、FS:XFS)
0295login:Penguin2008/09/26(金) 20:14:20ID:7oAA51Rx
>>294

> resyncはRAID構築時と同じ速度がでないと変だと思うんだけど、構築時もそんなに遅かったの?
よく覚えてませんが、たぶん構築時もこんなものだったような??

> dmesgとかsmartを確認した方が良さそう。
寄せ集めの320GB-IDEをUSB接続なのでこんなものかと。。
いただいた情報をヒントに調べてみます。

> あと、あんまりかつかつまで使わない方が良いと思うよ。
余裕を持ちたいのは山々ですが。。いろいろ詰め込んじゃうんですよね。
どこもかしこもかつかつで。。貧乏性で消せない性格がいけませんね。
速度よりも容量重視でこうなっちゃいました。。

0296login:Penguin2008/10/05(日) 10:49:30ID:Ze8uaqdI
/proc/mdstatがcheckになるのは、なぜですか?
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md1 : active raid6 sde1[4] sdd1[3] sdc1[2] sdb1[1] sda1[0]
2930279808 blocks level 6, 64k chunk, algorithm 2 [5/5] [UUUUU]
[>....................] check = 0.7% (7653376/976759936) finish=3794.0min speed=4256K/sec

/var/log/messages
Oct 5 01:06:01 host kernel: md: data-check of RAID array md1
Oct 5 01:06:01 host kernel: md: minimum _guaranteed_ speed: 1000 KB/sec/disk.Oct 5 01:06:01 host kernel: md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for data-check.
Oct 5 01:06:01 host kernel: md: using 128k window, over a total of 976759936 blocks.
md0についても同じメッセージが出ています。
ファイルシステムは、md0, md1ともにXFSです。

1時6分から何かが始まっていますが、cron.dailyは6時25分に設定されているので
cronによって起動された何かが原因ではありません。
OSを再起動したとか、ホットスワップしたタイミングでもありません。

OS: Debian GNU/Linux 4.1(etch)
カーネル: 2.6.26.5へ入れ替え
です。
0297login:Penguin2008/10/05(日) 13:12:24ID:rOZmgU0Y
/etc/cron.d/mdadm じゃね?
02982962008/10/05(日) 14:55:41ID:Ze8uaqdI
おっしゃるとおりです。
6 1 * * 0 root [ -x /usr/share/mdadm/checkarray ] && [ $(date +\%d) -le 7 ] && /
usr/share/mdadm/checkarray --cron --all --quiet
となってました。

どうもありがとうございました。
0299login:Penguin2008/10/11(土) 18:12:33ID:ZuxskNzz
SATAのHDDが10個ぐらいのRAID組みたいのだが
一番安く済む方法教えてほしい
0300login:Penguin2008/10/11(土) 20:12:37ID:0pLPQ9Sw
普通はエントリーモデル買って100万円ぐらいじゃない?
0301login:Penguin2008/10/11(土) 23:40:03ID:qfaubBp2
>>300
80 万くらいの差額はどうするべ?
■ このスレッドは過去ログ倉庫に格納されています