トップページlinux
984コメント371KB

RAID総合スレッド No.4

■ このスレッドは過去ログ倉庫に格納されています
0001login:Penguin2008/04/15(火) 21:49:14ID:Ve/x9iF4
Linuxでも標準でソフトウェアRAIDが可能となってきました。
マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう

スレ 1 http://pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 http://pc10.2ch.net/test/read.cgi/linux/1111348512/
スレ 3 http://pc11.2ch.net/test/read.cgi/linux/1168487758/

Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.co.jp/product/raid/os_support_list.html

Linux EVMS 一般
ttp://www-6.ibm.com/jp/developerworks/linux/021220/j_l-fs12.html
ttp://evms.sourceforge.net/

... あと続けてくらさい。
0478login:Penguin2009/01/05(月) 16:19:36ID:HmcpyJ9r
>>476
関係ありそうな部分だけ貼ってみます
その1
<略>
ahci 0000:00:11.0: version 3.0
ahci 0000:00:11.0: PCI INT A -> GSI 22 (level, low) -> IRQ 22
ahci 0000:00:11.0: AHCI 0001.0100 32 slots 6 ports 3 Gbps 0x3f impl RAID mode
ahci 0000:00:11.0: flags: 64bit ncq sntf ilck pm led clo pmp pio slum part
<略>
ata1: softreset failed (device not ready)
ata1: failed due to HW bug, retry pmp=0
ata1: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
ata1.00: ATA-8: ST3500320AS, SD15, max UDMA/133
ata1.00: 976773168 sectors, multi 0: LBA48 NCQ (depth 31/32)
ata1.00: configured for UDMA/133
ata2: softreset failed (device not ready)
ata2: failed due to HW bug, retry pmp=0
ata2: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
ata2.00: ATA-8: ST3500320AS, SD15, max UDMA/133
ata2.00: 976773168 sectors, multi 0: LBA48 NCQ (depth 31/32)
ata2.00: configured for UDMA/133

0479login:Penguin2009/01/05(月) 16:21:12ID:HmcpyJ9r
その2
scsi 0:0:0:0: Direct-Access ATA ST3500320AS SD15 PQ: 0 ANSI: 5
sd 0:0:0:0: [sda] 976773168 512-byte hardware sectors (500108 MB)
sd 0:0:0:0: [sda] Write Protect is off
sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00
sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sd 0:0:0:0: [sda] 976773168 512-byte hardware sectors (500108 MB)
sd 0:0:0:0: [sda] Write Protect is off
sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00
sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sda: sda1 sda2
sd 0:0:0:0: [sda] Attached SCSI disk
sd 0:0:0:0: Attached scsi generic sg0 type 0
scsi 1:0:0:0: Direct-Access ATA ST3500320AS SD15 PQ: 0 ANSI: 5
sd 1:0:0:0: [sdb] 976773168 512-byte hardware sectors (500108 MB)
sd 1:0:0:0: [sdb] Write Protect is off
sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00
sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sd 1:0:0:0: [sdb] 976773168 512-byte hardware sectors (500108 MB)
sd 1:0:0:0: [sdb] Write Protect is off
sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00
sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sdb: sdb1 sdb2
sd 1:0:0:0: [sdb] Attached SCSI disk
sd 1:0:0:0: Attached scsi generic sg1 type 0



0480login:Penguin2009/01/05(月) 16:21:42ID:HmcpyJ9r
その3
<略>
device-mapper: multipath: version 1.0.5 loaded
EXT3 FS on dm-0, internal journal
kjournald starting. Commit interval 5 seconds
EXT3 FS on sda1, internal journal
EXT3-fs: mounted filesystem with ordered data mode.
Adding 3604472k swap on /dev/mapper/VolGroup00-LogVol01. Priority:-1 extents:1 across:360
4472k
0481login:Penguin2009/01/05(月) 16:24:04ID:HmcpyJ9r
>>477
それらしきものが、出ました
# dmraid -r
/dev/sdb: pdc, "pdc_cbabhifjd", mirror, ok, 976642048 sectors, data@ 0
/dev/sda: pdc, "pdc_cbabhifjd", mirror, ok, 976642048 sectors, data@ 0

# dmraid -s
*** Set
name : pdc_cbabhifjd
size : 976642048
stride : 128
type : mirror
status : ok
subsets: 0
devs : 2
spares : 0
0482login:Penguin2009/01/09(金) 13:18:07ID:+j59FScV
このスレの人たちって、自作板のRAIDカードスレのように自分でインスコ、設定とかやったことあるの?
あっちはLinuxユーザが少なくて情報得るのに苦労してるわ・・
0483login:Penguin2009/01/09(金) 13:22:01ID:R08Zc+c9
Linuxユーザーは「本物の」RAIDカードしか使わないからじゃないの?
0484login:Penguin2009/01/09(金) 19:09:59ID:/ZwuDsYt
俺が使ってる3wareなら今じゃドライバは標準で入ってるし、
ユーティリティ類も普通にインストーラで入るし。
kernel2.4のときはドライバはtar玉から入れてたけど
それも特に苦労をした記憶はないな。
少なくとも俺は。
書いてある通りにやれば普通に入った。
まともなメーカーのを使えば、どれでもそんなもんじゃないの?

ソフトウェアRAIDだって、
ちょっと検索すりゃ親切丁寧な解説サイトは
いくらでもあるし。

一体何をそんなに苦労してるんだか知らんけど。
0485login:Penguin2009/01/09(金) 20:26:31ID:+j59FScV
>>483
本物ってハードウェアRAIDのこと?あのスレの連中はそっちのほうが多いけど。
自分の印象では、ジサカーと違ってLinuxユーザはハードに大金をかけない人が多い気がする。
RAIDもmdraidのミラー程度でささやかにやってるイメージ。
あ、馬鹿にしてるわけじゃないぞw

>>484
標準的な鳥を使う分にはほとんど問題ないけど、変にメーカーがカスタムしたやつだとトラブるときがある。
メーカーに聞いても「そんなの知らん」で終わりなんで、自力でやるしかない。
0486login:Penguin2009/01/09(金) 22:25:36ID:+wvRjhFl
Windows特有なのが、RAID0で起動を高速化って文化じゃないかな?
それがあるから、フェイクRAIDが大人気。

Linuxだとmdドライバに比べてフェイクRAIDが有利な要素が少ないから
結果的に(本物の)ハードウェアRAIDとmdに二分されるんだと思う。
Windowsにmdドライバやmdadmが移植されれば
フェイクRAIDよりmdのほうが柔軟で、人気が出たりするかもよ?

つかフェイクRAIDクラッシュの質問がOKWaveとかに多いのよね<Win
「M/BのBIOS updateで読めなくなった」とか、もう何と言っていいのやら orz
0487login:Penguin2009/01/09(金) 23:52:35ID:Al1IJSIe
mdと、dmってどう違うの?
意図して文字列を逆にしているみたいに思える。
0488login:Penguin2009/01/10(土) 01:48:52ID:loOCjssc
>>487
md: LinuxのソフトウエアRAIDドライバ
dmraid: BIOSのRAID構成情報を使ってmdのソフトウエアRAIDを構成するドライバ

>>485
本物のRAIDカードというのは、RAIDカード単体で本体のCPUの補助なしでRAIDを行なえるカードのこと。
例えばXORアクセラレータが付いてるだけのRAIDカードは本物のRAIDカードじゃない。
具体的にはIntel IOPが載っててバッテリーバックアップユニットが付けられるRAIDカードは本物のはず。

個人的には非標準的なドライバをあまり信用できないのでmd派。本物高いし。
04894862009/01/10(土) 13:36:09ID:odJ/+a4Y
>>486
俺も自作初めたばかりの無知な頃にフェイクRAIDで痛い目みたわw
nforce2のraidだったかなぁ・・・raid0速い!って喜んでたわ

>>488
大学の研究室である程度まとまった金でRAID組まされることあんだよね。
研究室の共用サーバにインストールするんだが、何度か面倒な目にあった。
もう全部業者任せにしようかと思うわ・・・

自分でやるならやっぱmdだな
0490login:Penguin2009/01/10(土) 14:22:42ID:8L5rYSxp
>>486
WindowsにもSoftware RAIDはついてるのに、なぜか活用されてないね。
なんちゃってRAIDなんかよりそっち使えばいいのに・・・
0491login:Penguin2009/01/10(土) 15:34:13ID:sulqjtr0
ここで言われてる「本物」でお奨めになものってどんなのがあります?
0492login:Penguin2009/01/10(土) 16:15:58ID:o9R1cT+y
ETERNUS
0493login:Penguin2009/01/10(土) 17:02:57ID:3dK3csV8
>>486>>490
md4ramって移植版のドライバがある。
ライトバックキャッシュを利かせて使いたいが開発が滞っているみたい。
壊れてもいいデータしか置かないけど2chブラウザのログ置きに最適。
0494login:Penguin2009/01/12(月) 01:59:14ID:/Son47ik
>>488
>md: LinuxのソフトウエアRAIDドライバ
>dmraid: BIOSのRAID構成情報を使ってmdのソフトウエアRAIDを構成するドライバ

じゃあ、biosraidがdmraidで動作しているからといって、ハードウェア処理されているわけでなく、
結局は、linuxのmdドライバでraidの処理がなされているわけなんだ。

biosraidにプロミスってあったから、これはオンボードでハード処理されて、
linuxには一個のディスクとして見せているんだと勘違いしていました。

0495login:Penguin2009/01/12(月) 04:47:57ID:nRZhkl6m
Promiseという時点でそもそも
0496login:Penguin2009/01/12(月) 13:44:42ID:/Son47ik
オンボードの、promiseと刻印されたあのチップは何?

0497login:Penguin2009/01/12(月) 17:33:13ID:odrqpoZ2
FakeRAIDは、専用のインタフェースチップ使うよ。

http://itpro.nikkeibp.co.jp/article/Keyword/20070824/280335/
0498login:Penguin2009/01/12(月) 17:50:42ID:gg7V03n9
>>496
http://www.promise.com/
IDE,SATAのインターフェイスを作っている会社。
他にもストレージ関係をやってるのかな?

ハードウエアRAIDの会社のイメージは無いな。
0499login:Penguin2009/01/12(月) 22:04:06ID:/Son47ik
promiseといえば、raidのイメージが付きまとうのは、
昔、大きなraidのpciカードの黄色い外箱に、promiseと書いてあったからだ。

0500 ◆Zsh/ladOX. 2009/01/12(月) 22:57:48ID:HR1zAo8l
sx4000使ってたけど。
悪いイメージは無い。
数年前にPC内の画像を晒した記憶あり。
0501login:Penguin2009/01/13(火) 21:30:47ID:UzNBMlny
今、debian etchのamd64でHDD2台を使って
ソフトウェアRAIDでミラーリングしています。
技術力の不足から、amd64をあきらめてi386バージョンを
インストールしてやり直そうと考えているんですけど
この場合、RAIDを解除して1台目のディスクにi386をインストールした後に
2台目のディスクからデータをコピーして、改めてミラーリングの設定にする
ということは可能ですか?
0502login:Penguin2009/01/13(火) 22:15:55ID:UQqV5nIq
degradedになっても良ければ
0503login:Penguin2009/01/13(火) 22:26:17ID:UzNBMlny
>>502
degradedってのを調べて見ました。
それって、一時的ってことですか?
それとも、i386で改めて新しくRAID1を構成しても
後遺症的なものが残るという意味ですか?
0504login:Penguin2009/01/13(火) 22:37:13ID:JlH/mAiu
解除もクソもi386インスロースした時点でRAIDの情報消えてるんじゃないの?
0505login:Penguin2009/01/13(火) 22:40:26ID:UzNBMlny
>>504
インストールするのは、1台目のHDDだから
2台目のドライブは、ケーブル抜いてしまえばいいんじゃないかと考えてたんですが。
インストール後に、ケーブル繋いでマウント・・・ってのは無理なんですか?
0506login:Penguin2009/01/13(火) 22:47:11ID:JlH/mAiu
あーデーターの移行の方法ね。
普通にマウントしてコピーしてから、mirrorの設定して2台目上書きすればいいと思うよ。
0507login:Penguin2009/01/13(火) 22:50:34ID:UzNBMlny
>>506
ありがとう。細かな手順調べて、実行してみます。
0508login:Penguin2009/01/14(水) 14:35:19ID:0aFf9qq6
>>488
>>497
ためになりました。ありがとう。

0509login:Penguin2009/01/15(木) 01:12:00ID:9+zR18Pi
>>494

dmraidは、つまり、mdのラッパーオブジェクトのようなものだと考えればいいかな。
ただし、>>497 で引用されているように、
dmraidは、biosで管理されているraidの設定情報を使用しているわけか。
だから、ataドライバの読み込みの時点で、代わりにdmraidが使用されて、
そのraid構成が有効化されるのだね。
すなわち、dmraidでは、通常の非アレイディスクのように認識させることも可能なんだ。

この考え方で、
合ってますでしょうか。

0510login:Penguin2009/01/15(木) 14:26:29ID:knA7Hlz9
BUFFALOのeSATA外付けHDD(RAID1)をLinuxにつないで使っています。
HDDに不具合が生じた場合、それを確認する方法(ツール・アプリ)はないのでしょうか?
0511login:Penguin2009/01/15(木) 14:34:19ID:Rfu3LZdb
BUFFALOに聞けよw
0512login:Penguin2009/01/16(金) 02:11:08ID:32Awgl8B
fakeRAID(BIOSraid)で、ミラーリングアレイを構築、そしてFedora7で使用しています。
障害発生時に備えて、試しに、ハードディスクを一つを外してみました。
BIOSraid画面でエラー表示が出た後、そのままlinuxブートローダーが起動しました。

device-mapperの処理で、failure, no such deviceを表示、そして、no volumeになりました。
ついに、Kernel Panicで停止しました。
レイドアレイが正常ではないのでそれはそうだろうと思い、

BIOS画面にて、そのRAIDモードを解除し、通常のIDEモードに切り替えました。
単体のハードディスクで起動を試みようというわけです。
ブートローダーが動き、カーネルの読み込みが始まります。

しかし、先ほどと同じような具合で、device-mapper関係のエラーで、kernel panicで停止しました。
これは意外でした。

自動的に、単体のハードディスクのための処理へと切り替えてくれないようです。

つまり、もしもhddが片方故障した場合には、必ず再び同じraid構成を機能させておくということになると思います。
しかし、あえてここで、device-mapperの使用を解除して、通常の起動に切り替えるというようなことはできないのでしょうか。
教えてください。


05134752009/01/16(金) 03:08:08ID:32Awgl8B
475です。
連投ですみません。別件の問があります。

>>475 のdfコマンドの結果は、fedora10でのfakeraidのミラーリング構成でのものです。(同じものを下に引用しました)
-----------------------------------------------------------------------------
<Fedora10での結果>
/dev/mapper/VolGroup00-LogVol00
476871688 55799360 396848584 13% /
/dev/sda1 194442 21960 162443 12% /boot
tmpfs 896296 1152 895144 1% /dev/shm
-----------------------------------------------------------------------------

ところが、fedora7での同様の構成(マザーは異なっている)にて、dfコマンドをすると、
下記のようになります。


 これらをみると、Fedora7では/bootなど特殊なディレクトリは、/dev/mapper/pdc_dacjp1で管理されていることがわかり、
そしてfedora10では/bootが/dev/sda1にて直接管理されているようです。
fedora10にて、教えていただいたように「dmraidコマンド」でraidの構成の具合を確認したところ、>>481 のように正常のようです。

 このFedora7と10でのraid1における、/bootに対する表示の差は何を意味しているのですか。
Fedora10になって、dmraidがより高度化して、/dev/sdaでraid1をラッピングしているわけなのでしょうか?

----------------------------------------------------------------------------------------
<Fedora7での結果>
Filesystem 1K-ブロック 使用 使用可 使用% マウント位置
/dev/mapper/VolGroup00-LogVol00
148297964 29496048 111147312 21% /
/dev/mapper/pdc_dacjp1
101086 19396 76471 21% /boot
tmpfs 2032296 0 2032296 0% /dev/shm
0514login:Penguin2009/01/16(金) 03:13:14ID:rwDT7nUQ
LVMの問題ではなくて?
0515login:Penguin2009/01/18(日) 13:33:02ID:mOdWiiXB
mdadm使いにくいよー
raidtoolsのほうがバタ臭いけどいい

mdadmで一番むかつくのが良くわからないタイミングで
ディスクがspareにされて、元に戻したいのに戻せない。イライラ
0516login:Penguin2009/01/18(日) 22:48:12ID:06Dcpdo5
raid6がお亡くなりになった。
HDDというよりSATAカードが死亡したっぽい。
(玄人志向とPromiseのSATAカードの2枚挿しで8つHDDをくっつけてる。
今回は玄人志向がお亡くなりになった。)

再起動してカードは復活したみたいなので
(配下のHDDが/devに戻ってきた&badblocksが通った)
HDDをArrayに追加しようとしたが
配下のHDDが全部faulty removedに落ちちゃってて
mdadm -Aでもcannot get array info for /dev/md0と表示されエラー。

このスレの64氏の現象に近い気がするが、
superblock書き換えなどは出来る自信ないので
mdadm -Cで再度Array構築しなおした。

ここんとこバックアップをサボってたから結構痛いわー。


つーかもうSATAカードとかあまり使わないで済むように
ちゃんとしたファイルサーバ組んだ方がいいな。
0517login:Penguin2009/01/19(月) 00:09:08ID:L7Ubbq6r
カードまたいでRAID5/6組んでたら、カード死亡には対応できんよなぁ。
カード単位でお亡くなりになるケースは結構ありがちだし対策したいところ。

カードを1枚にしてそこに全部ぶら下げればカードが死んでも
全部見えなくなるだけでsuperblock更新されないから、516は防げるかも。

同じ考え方で、台数が必要な場合はSATAカード2枚準備して、
SATAカードをまたいでmdのRAID1を組んでそれを繋げるとか、
同じカードのSATAポート群とかカードのRAID機能でRAID5/6を
作ってそれをmdで繋げるとか。
0518login:Penguin2009/01/19(月) 06:19:37ID:CHw0KQY0
>お亡くなりになる
やめてください、そういう表現。
葬式の臭いがしてくる。


0519login:Penguin2009/01/19(月) 10:43:16ID:L7Ubbq6r
は?
0520login:Penguin2009/01/19(月) 17:06:36ID:426uxyHi
カード死んだら葬式みたいなもんだろ…
0521login:Penguin2009/01/19(月) 17:30:39ID:/o7gcRDM
データさえ生きてりゃ今夜が山状態だろ。
0522login:Penguin2009/01/19(月) 17:38:24ID:hR5pv9yI
>>515
次に使うまでに
一度「バタ臭い」の意味を調べた方がいいと思う。
0523login:Penguin2009/01/19(月) 19:31:23ID:AVvVP96W
○バタくさ・い【―臭い】

(形)

〔バタはバターの意〕西洋風な感じがする。また、西洋かぶれしている。
「―・い表現」「―・い顔立ち」



◎きなくさ・い 4 【きな臭い】

(3)なんとなく怪しい。うさんくさい。
「どことなく―・い話」


三省堂提供「大辞林 第二版」より
0524login:Penguin2009/01/19(月) 20:42:12ID:8LWc0G4T
西洋人は信用するなって事ですね。
0525ライナス2009/01/19(月) 21:21:54ID:CHw0KQY0
もともこもない
0526login:Penguin2009/01/20(火) 11:04:32ID:QUoqwrOB
いままで、raid1で十分だと思っていた。
でも、もし、片方が壊れて、もう片方に不良セクタ君があったら、データは損傷してしまう。
そこで、raid5の出番である。
ご存知、ストライプという概念を設けて、パリティーによって不良セクタによる損傷を補償できる。
でも、raid5は、ディスク2台が同時期に壊れてしまったら、もはやすべて終わりである。

で、そこで、raid6の出番。今は、6(二方式の内、パリティーを分散する方式の方)が一般化しているんだね。
ストライプという概念は同じであるけど、パリティーを強化して、ディスクが2台壊れても平気なようにしてあるんだね。

ディスクが安価な今は、冗長な構成でも苦しくないね。

カードが壊れたという人が↑の方にあったけど、カードってそんなに壊れやすいの?
カードが壊れてもディスクが無事なら、復旧は易いんじゃないのですかね。


それから、そもそも先に不良セクタをマークしておいたら、raid1でもいいんじゃないかな。


0527login:Penguin2009/01/20(火) 11:39:38ID:tmOakhLn
復旧可能かどうかはカードの壊れ方次第では。

壊れた結果ムチャクチャなデータを
デタラメに書き込まれたら
どう頑張っても復旧でけんだろう。

カードが壊れやすいかどうかは
これまたカード & 運次第かと。
俺は一度も壊れた経験ないけど。
0528login:Penguin2009/01/20(火) 11:45:10ID:gBT8fCPT
>>526
日頃の行いが悪いからHDDが壊れる。
0529login:Penguin2009/01/20(火) 13:11:48ID:jayBGkBw
>>526
なんつーか理解してないな

> ご存知、ストライプという概念を設けて、パリティーによって不良セクタによる損傷を補償できる。
RAID5でもRAID1でも、単体ではdegradedでの不良セクタに対処できない点は同じ

> カードが壊れてもディスクが無事なら、復旧は易いんじゃないのですかね。
それが>>517

> それから、そもそも先に不良セクタをマークしておいたら、
経時の不良セクタ発生に対処できない

まぁカードが壊れることはそれほど多くない。
業務で大量に管理していれば結構見るけれど、個人でやる分には当たる確率は低い。
0530login:Penguin2009/01/20(火) 18:33:36ID:n7Hnf9Lk
516だが再構築の際エラーが出て停止
その後色々試したがなんかカードのBIOSから一部のHDDがみえたりみえなかったり
ついにはbadblocksも通らないHDDが出始めた

もしかしたら今回の犯人はカードじゃなくHDDがカードを巻き込んで落ちたのかも

と思っていた時
海門のニュースを知った

6台が該当です。
本当にありがとうございました。
0531login:Penguin2009/01/20(火) 18:46:34ID:AAZq+mqB
RAIDを組むハードディスクは、製品や製造ロットを同じものにしないほうがいい、というのは本当だったか。
530に同情するよ。サーバーが落ちても気は落とすな。
0532login:Penguin2009/01/20(火) 20:46:45ID:3icForSX
>>531
基本中の基本
RAID1ペア組むときはメーカーから変える
0533login:Penguin2009/01/20(火) 21:20:12ID:QUoqwrOB
>海門
=sea gate
ファームウェアの不具合の件ですよね
困るよなあ、といいつつ、私も、そのメーカーのディスクでした。
ハードディスク買うなら、”海門”と決めていたんです。なんか、壊れにくいイメージがあるから。
壊れたことがない。かちゃん、かちゃん、かちゃん、なんて絶望的な音をさせたことがないということです。

0534login:Penguin2009/01/21(水) 11:28:11ID:KNJKiqg2
以前は同じモデルでも容量がちょっと違っていて、
交換したら容量不足で使えないという悲しいことが
ちょくちょくあったが、
最近は違うメーカーでも問題が起きなくなったので
ありがたい。

0535login:Penguin2009/01/21(水) 12:56:36ID:1/Cy7HwZ
いつ消えるか分からないメーカーのサービスに期待して全領域使っちゃうのは馬鹿だろ
保証されてるのは例えば500GBなら500,000,000,000Bまで。
0536login:Penguin2009/01/21(水) 13:04:54ID:xEzc7nEM
ぴったりの500GBのディスクが無ければ、
750GBのディスクを買えばいいのに。
0537login:Penguin2009/01/21(水) 14:35:01ID:Lxj+eixA
同じモデルって前提だろ
バカか バカなのか
0538login:Penguin2009/01/21(水) 15:07:49ID:+OFl4BAS
個人でしょぼいRAID5環境を動かしていましたが
ばっちりRAIDカードが壊れたことあります。
というか、フェイクRAIDしか無いカードをmdで使っているのに
RAIDカードと言うのか?とは思います。

玄人志向の4ポートPCI SATAカードでした。
C7のSATA2ポートなM/BでRAID5をやるために使いましたが
一年弱で、4つのうち一つのポートが動作しなくなりました。

予備HDDはあったので、HDDを入れ替えても認識せず
よくよく調べると、カードのほうが死んでいたというオチ。

急場をしのぐために、オンボードのSATAポートとの混在RAID5として
そのまま2ヶ月程度、問題なく動きました。(その後SATAカードを交換)

今はPCIeの1430SAで、あえてmdドライバー。


ところで、Linuxでホットスワップで再認識する条件とか手順ってどうなるのでしょうか?
とりあえず、普通に抜き差しするとダメっぽいのですが…
チップやドライバーではなく、玄人志向のカードがホットスワップ非対応だったのかなぁ…

0539login:Penguin2009/01/21(水) 15:42:19ID:C3awCYv6
普通に抜き差しでok。sata_sil24のはずなので対応してる。
多分カーネルが古いのが原因。
0540login:Penguin2009/01/21(水) 15:47:09ID:xqg3zZth
外す前にこれでHDDの電源を落としておく方が安全
# echo 1 > /sys/block/sdX/device/delete
0541login:Penguin2009/01/21(水) 15:47:43ID:NpsqSYmx
ロット揃えたほうがパフォーマンス良さそうなのでRaidアレイ組むときは毎回揃えてるけど、
豪快なロット不良見ると怖くなるな。
05425382009/01/22(木) 02:32:04ID:9i3fv5RC
>>539,>>540
ありがとうございます。試してみたらできました。
というかオチがあります。

これ、取り外した時点でデバイスが消えないのは仕様なのでしょうか?
たとえば、普通にfdisk -lには出てきます。

HDDを止めて再スピンアップさせることで初期化が行なわれて
現在接続されているHDDの情報に書き換わるという挙動のようです。

で、以前はHDDの停止と再スピンアップなどは行なわなかったために
差し替え直後のfdisk -lで、HDD情報が更新されていないことを理由に
ホットプラグが正常になされていないと判断していました orz


#/sys/block/sdX/device/下のファイルについては
#どこ探せば情報が見つかるものでしょうか…
0543login:Penguin2009/01/22(木) 15:19:59ID:CwsVQNf2
>>541
> ロット揃えたほうがパフォーマンス良さそうなので

意味が分からない
0544login:Penguin2009/01/22(木) 15:31:18ID:7lkmeW2Z
昔はRAID組むなら同一型番できればロットも揃えようっていう風潮だった。
型番同じでもファーム違うと微妙にキャッシュアルゴリズム変わってたりするし。
その場合ベンチの結果も微妙に変わる。
アクセス速度近い方が効率よさそうじゃん。
当然同じようにアクセスするディスクでロットまで同じだと壊れるのも一緒になるから
ロットくらいはばらした方が良いって言う人もいたけど。
0545login:Penguin2009/01/22(木) 20:50:46ID:u0UB26l/
ロットどころかメーカーからばらす。

まぁ結局はRAIDに何を求めるか、なわけだが、
あるのかかどうか分からないパフォーマンス向上を目当てに
同時故障リスクを採る選択は、俺はしないね
0546login:Penguin2009/01/22(木) 21:43:17ID:xRfSeFjv
>>540
そんな/sysの下の物体の情報って、一体どこで見つけるの?ソース?
俺はいままで

 sdparm -C stop /dev/sda

とかしてたよ。
0547login:Penguin2009/01/22(木) 21:57:04ID:u0UB26l/
>>546
基本はソースだけど、その場合むしろsdparmの方がいいんでは?
/sys直叩きだといちいちカーネルの仕様変更追っかけないといけなくなる
0548login:Penguin2009/01/23(金) 01:31:55ID:iL0wYbEo
>>544
昔って何十年前の話?
0549login:Penguin2009/01/23(金) 01:35:42ID:gP0PPzWy
5年前
0550login:Penguin2009/01/23(金) 03:37:27ID:93gY8ymT
ディスクアレイはロットは知らんがメーカーと型番くらいは揃ってるな。
メーカーバラバラだったら同じ所からは二度と買わんわw
0551login:Penguin2009/01/23(金) 12:07:20ID:3M4C0RkK
>>549
俺の周辺の風潮では5年前でも
安全のためにロットは揃えるな
だったが。

ま、地方によって違うんだろうな。
0552login:Penguin2009/01/23(金) 13:08:14ID:7Cxp47f1
まだDECがあったころ、導入したDECのサーバーは業者が段ボール箱から次々とHDDを
取り出して組み込んでいたから同じロットだったんじゃないかと思うんだが、記憶が確かではない。
それが俺のRAID初体験なのでロットのことまで気が回らなかった。

HDD組み込み済みのRAIDボックスはどうなんだろうか?同一ロットにならないようにしているのかな?

ちなみに自分で組むときは、新しく買ってきたやつと予備としてストックしてあるやつを混ぜて使うようにしている。



0553login:Penguin2009/01/24(土) 04:31:39ID:ptL5pKyY
>>533
シーゲートのファームウェア不良の件、
ウインドウズ用には、不具合検出用のツールがあるが、
どうしてリナックス用にはないのだろう。
リナックスユーザーは多いだろうに。
それとも、あるんですか?

0554login:Penguin2009/01/24(土) 07:30:04ID:u99vPwbM
>>553
切捨てられてるんだろう。いつものこと。
0555login:Penguin2009/01/24(土) 13:11:53ID:Di00Ifqv
検出専用ソフトではなく
CD版のSeatoolsでブートすりゃいいんじゃないかと思うが
0556login:Penguin2009/01/24(土) 21:47:35ID:ptL5pKyY
ありがとう

0557login:Penguin2009/01/28(水) 00:26:06ID:ir2fam9u
#mdadm -C /dev/md0 -l5 -n4 /dev/sd[bcde]1
で、cat /proc/mdstatで状態見るとリビルドしてるけど なぜか[UUU_]
はあ?と思ってmdadm -D /dev/md0 してみると
/dev/sde1 がspare rebuildingになって勝手にspare扱いになってる。
意味がわからない。スペアなんか作りたくないし。そんな指定はどこにもしてない。
エスパーレスおながいします。
0558login:Penguin2009/01/28(水) 00:38:08ID:LK11AqVS
>>557
zero superblockした?
0559login:Penguin2009/01/28(水) 07:15:42ID:ir2fam9u
>>558
sdb1〜sde1 全部にmdadm --zero-superblock してみましたが
変わりませんでした。

こうなるのも謎です。なぜ[4]なのか・・・
>md0 : active raid5 sde1[4] sdd1[2] sdc1[1] sdb1[0]
0560login:Penguin2009/01/28(水) 07:34:42ID:LK11AqVS
mdの構成対象外でも、システム内に3に相当するsuper-minor番号の
パーティションがあるとそうなるかも…
# mdadm --examine /dev/sdb1
するとどうなります?
0561login:Penguin2009/01/28(水) 07:39:07ID:ir2fam9u
こうなりました

/dev/sdb1:

(長いので省略、多分あまりこの部分は関係なさそうです)

Number Major Minor RaidDevice State
this 0 8 17 0 active sync /dev/sdb1

0 0 8 17 0 active sync /dev/sdb1
1 1 8 33 1 active sync /dev/sdc1
2 2 8 49 2 active sync /dev/sdd1
3 3 0 0 3 faulty
4 4 8 65 4 spare /dev/sde1
0562login:Penguin2009/01/28(水) 13:57:54ID:3QasENir
よく分からんけど、
単にhdeが故障してfaultyになっただけなんでわ。
hde交換してみれば?

>>431みたいなこともあるし、
SW-RAIDのハードウェア異常時の表示は
あまり信頼しない方がいい。
0563login:Penguin2009/01/28(水) 13:59:12ID:3QasENir
なんか変だな。

× あまり信頼しない方がいい。
○ あまり信頼できない。

だね。
0564login:Penguin2009/01/29(木) 01:18:01ID:PTiNMDCX
>>561
他のデバイスもexamineしてみると、違いから何か分かるかもしれない。
あと新規構築時にはパリティが不整合の状態なのでresyncするのが通常動作。
でもresync時の追加パーティションってspare表示になる仕様だったっけか?
0565login:Penguin2009/01/29(木) 06:27:34ID:12B6/rA+
mdadmでRAID5を設定してるんですが、RAIDを構成してる各ディスクを
hdparmでスタンバイに移行するように設定しても大丈夫でしょうか?
05665612009/01/29(木) 07:16:39ID:WiRmM86x
[UUU_]でリビルド完了を待ったところ[UUUU]になって
sde1[3]になりました。原因はよくわかりません。
0567login:Penguin2009/01/29(木) 19:37:09ID:PTiNMDCX
>>566
たぶん構築時リビルドだろう
ためしに1台をfaulty removeしてもう一回追加、同じ現象になったら間違いない
05685612009/01/30(金) 21:48:37ID:pZmCaYyi
>>567
今回は初めての事象なんですが
Linuxかmdadmがアレイ対象のドライブではないどこかに情報覚えてるってことですよね
それを消せればいいような気がします
0569login:Penguin2009/01/31(土) 21:10:43ID:INV0scHx
>>568
調べるとしたら設定ファイルとしてはmdadm.conf
場所は/etcとか/etc/mdadmとか
0570login:Penguin2009/02/08(日) 22:42:30ID:Ey2JVBl4
全国のmdadmファンのじょしこうせいのみなさ〜ん
みんな知ってるかなぁ?RAID0ってgrowでボリュームを大きくできないんですよ。
で、当然のごとく、RAID10もできないのですよ。

4wayのRAID5をでかいHDDに差し替えていって、grow機能で
250GBx4から500GBx4に移行したことがあったんだけど…

今回は1TBx4に差し替えつつ500GBパーティションx4の
RAID5とRAID10を作った上で、データを移し
1TBパーティションx4に移行しようとして
いざそこまできてgrowできないことを知ったという orz

こういうのをトホホって言うんだと思った。
まぁ、reiserfsからXFSへの切り替えもあったし
なんとかmissing付きでRAID10を起動したりして片付けた。

将来もっとでかいHDDに移行するときは
それなりの用意をせざるをえないなぁ…
0571login:Penguin2009/02/08(日) 23:27:56ID:Nj6iWNXA
えらくピンポイントだなw
0572login:Penguin2009/02/09(月) 12:39:22ID:9FAXyoAI
LVM組み合わせれば
RAID自体のボリューム拡張できなくても
実用上は問題ないんじゃ
0573login:Penguin2009/02/09(月) 12:46:53ID:Eg6suWBI
>>571,572
えらいおっさん臭いじょしこうせいだな
0574初心者の通りすがり2009/02/16(月) 21:37:32ID:4jXnyPos
お忙しいところ恐縮ですが、質問があるのですが、
誰かお助けを・・

1、mdadmなどのソフトウェアRAIDで、HDDの不良セクタを自動回避するプログラムは組み込まれているのでしょうか?
それとも、セクタ不良の箇所が出た時点で、HDD交換になってしまうのでしょうか?

2、もし、上記のシステムが組まれている場合、HDDに標準で搭載されている機能として、実際に使用者が確認出来る不良セクタは
ハードディスクの隠れ領域の余裕空間に代替された不良セクタがそれ以上代替出来る空間がなくなって現れる使用(いまどきのHDDはみなそうですよね?)はずですが、
代替のセクタが現れている時点でセクタのゆとりがなくなっているわけで、そのため、そのセクタを不良セクタとして認識する必要があると思います。
しかし、RAIDの場合、すべてのHDDの同じアドレスのセクタを使用不能にする必要(仮に他のHDDのセクタが正常でも、1うのHDDが以上であれば)があると考えられますが、
これらの対応はされているのでしょうか?

3、可能であれば、RAIDとしてアレイに組み込む前に、HDDのセクタチェックをしてから、アレイに組み込めればと思うのですが、
そのようなLinuxプログラムはあるのでしょうか?(ものすごい時間かかるPGのような気がしますが・・)

RAIDその他に関して、初心者で的外れな質問の可能性がありますが、お教えいただければ幸いです。
よろしくお願いします。

0575初心者の通りすがり2009/02/17(火) 01:22:44ID:FIlRA3Ek
自己レスです。
3、のセクタチェックは、mkfs の -c オプションがその任を担っている事が分かりました。
またbadblocks という同じ機能を持つものも発見しました。ただどうやらRead checkだけのようです。
0576login:Penguin2009/02/17(火) 01:34:14ID:rlTL3AkS
つ badblocks -w
0577login:Penguin2009/02/17(火) 01:56:17ID:ljmr48rY
>>574
1: 不良セクタの回避は通常HDDファームのレイヤの仕事。
mdのレイヤだと特になし。FSは実装次第。
SMARTで異常値が出るような状態なら普通は交換処置。

2: HDDのセクタ代替処理は内部的なもので、破損セクタが見つかった場合
そのLBAに対応する物理セクタが置き換わるだけで外から見ると何も変わらない。
従って
>すべてのHDDの同じアドレスのセクタを使用不能にする必要
はない

3: 上に書いたようにセクタチェックは別のレイヤの仕事。
RAIDボリュームの一貫性検査ならconsistency-checkとかで検索。
ってかmkfs -cしてからRAIDに組み込むって手順が謎すぎるんだが
■ このスレッドは過去ログ倉庫に格納されています