RAID総合スレッド No.4
■ このスレッドは過去ログ倉庫に格納されています
0001login:Penguin
2008/04/15(火) 21:49:14ID:Ve/x9iF4マターリとLinuxのRAIDやその周辺技術、設定等について情報交換しましょう
スレ 1 http://pc5.2ch.net/test/read.cgi/linux/1013875908/
スレ 2 http://pc10.2ch.net/test/read.cgi/linux/1111348512/
スレ 3 http://pc11.2ch.net/test/read.cgi/linux/1168487758/
Linux RAID 一般
ttp://linas.org/linux/raid.html
ttp://www.linux.or.jp/JF/JFdocs/The-Software-RAID-HOWTO.html
ttp://linas.org/linux/Software-RAID/Software-RAID.html
Adaptec Japan
ttp://www.adaptec.co.jp/product/raid/os_support_list.html
Linux EVMS 一般
ttp://www-6.ibm.com/jp/developerworks/linux/021220/j_l-fs12.html
ttp://evms.sourceforge.net/
... あと続けてくらさい。
0478login:Penguin
2009/01/05(月) 16:19:36ID:HmcpyJ9r関係ありそうな部分だけ貼ってみます
その1
<略>
ahci 0000:00:11.0: version 3.0
ahci 0000:00:11.0: PCI INT A -> GSI 22 (level, low) -> IRQ 22
ahci 0000:00:11.0: AHCI 0001.0100 32 slots 6 ports 3 Gbps 0x3f impl RAID mode
ahci 0000:00:11.0: flags: 64bit ncq sntf ilck pm led clo pmp pio slum part
<略>
ata1: softreset failed (device not ready)
ata1: failed due to HW bug, retry pmp=0
ata1: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
ata1.00: ATA-8: ST3500320AS, SD15, max UDMA/133
ata1.00: 976773168 sectors, multi 0: LBA48 NCQ (depth 31/32)
ata1.00: configured for UDMA/133
ata2: softreset failed (device not ready)
ata2: failed due to HW bug, retry pmp=0
ata2: SATA link up 1.5 Gbps (SStatus 113 SControl 300)
ata2.00: ATA-8: ST3500320AS, SD15, max UDMA/133
ata2.00: 976773168 sectors, multi 0: LBA48 NCQ (depth 31/32)
ata2.00: configured for UDMA/133
0479login:Penguin
2009/01/05(月) 16:21:12ID:HmcpyJ9rscsi 0:0:0:0: Direct-Access ATA ST3500320AS SD15 PQ: 0 ANSI: 5
sd 0:0:0:0: [sda] 976773168 512-byte hardware sectors (500108 MB)
sd 0:0:0:0: [sda] Write Protect is off
sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00
sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sd 0:0:0:0: [sda] 976773168 512-byte hardware sectors (500108 MB)
sd 0:0:0:0: [sda] Write Protect is off
sd 0:0:0:0: [sda] Mode Sense: 00 3a 00 00
sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sda: sda1 sda2
sd 0:0:0:0: [sda] Attached SCSI disk
sd 0:0:0:0: Attached scsi generic sg0 type 0
scsi 1:0:0:0: Direct-Access ATA ST3500320AS SD15 PQ: 0 ANSI: 5
sd 1:0:0:0: [sdb] 976773168 512-byte hardware sectors (500108 MB)
sd 1:0:0:0: [sdb] Write Protect is off
sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00
sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sd 1:0:0:0: [sdb] 976773168 512-byte hardware sectors (500108 MB)
sd 1:0:0:0: [sdb] Write Protect is off
sd 1:0:0:0: [sdb] Mode Sense: 00 3a 00 00
sd 1:0:0:0: [sdb] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
sdb: sdb1 sdb2
sd 1:0:0:0: [sdb] Attached SCSI disk
sd 1:0:0:0: Attached scsi generic sg1 type 0
0480login:Penguin
2009/01/05(月) 16:21:42ID:HmcpyJ9r<略>
device-mapper: multipath: version 1.0.5 loaded
EXT3 FS on dm-0, internal journal
kjournald starting. Commit interval 5 seconds
EXT3 FS on sda1, internal journal
EXT3-fs: mounted filesystem with ordered data mode.
Adding 3604472k swap on /dev/mapper/VolGroup00-LogVol01. Priority:-1 extents:1 across:360
4472k
0481login:Penguin
2009/01/05(月) 16:24:04ID:HmcpyJ9rそれらしきものが、出ました
# dmraid -r
/dev/sdb: pdc, "pdc_cbabhifjd", mirror, ok, 976642048 sectors, data@ 0
/dev/sda: pdc, "pdc_cbabhifjd", mirror, ok, 976642048 sectors, data@ 0
# dmraid -s
*** Set
name : pdc_cbabhifjd
size : 976642048
stride : 128
type : mirror
status : ok
subsets: 0
devs : 2
spares : 0
0482login:Penguin
2009/01/09(金) 13:18:07ID:+j59FScVあっちはLinuxユーザが少なくて情報得るのに苦労してるわ・・
0483login:Penguin
2009/01/09(金) 13:22:01ID:R08Zc+c90484login:Penguin
2009/01/09(金) 19:09:59ID:/ZwuDsYtユーティリティ類も普通にインストーラで入るし。
kernel2.4のときはドライバはtar玉から入れてたけど
それも特に苦労をした記憶はないな。
少なくとも俺は。
書いてある通りにやれば普通に入った。
まともなメーカーのを使えば、どれでもそんなもんじゃないの?
ソフトウェアRAIDだって、
ちょっと検索すりゃ親切丁寧な解説サイトは
いくらでもあるし。
一体何をそんなに苦労してるんだか知らんけど。
0485login:Penguin
2009/01/09(金) 20:26:31ID:+j59FScV本物ってハードウェアRAIDのこと?あのスレの連中はそっちのほうが多いけど。
自分の印象では、ジサカーと違ってLinuxユーザはハードに大金をかけない人が多い気がする。
RAIDもmdraidのミラー程度でささやかにやってるイメージ。
あ、馬鹿にしてるわけじゃないぞw
>>484
標準的な鳥を使う分にはほとんど問題ないけど、変にメーカーがカスタムしたやつだとトラブるときがある。
メーカーに聞いても「そんなの知らん」で終わりなんで、自力でやるしかない。
0486login:Penguin
2009/01/09(金) 22:25:36ID:+wvRjhFlそれがあるから、フェイクRAIDが大人気。
Linuxだとmdドライバに比べてフェイクRAIDが有利な要素が少ないから
結果的に(本物の)ハードウェアRAIDとmdに二分されるんだと思う。
Windowsにmdドライバやmdadmが移植されれば
フェイクRAIDよりmdのほうが柔軟で、人気が出たりするかもよ?
つかフェイクRAIDクラッシュの質問がOKWaveとかに多いのよね<Win
「M/BのBIOS updateで読めなくなった」とか、もう何と言っていいのやら orz
0487login:Penguin
2009/01/09(金) 23:52:35ID:Al1IJSIe意図して文字列を逆にしているみたいに思える。
0488login:Penguin
2009/01/10(土) 01:48:52ID:loOCjsscmd: LinuxのソフトウエアRAIDドライバ
dmraid: BIOSのRAID構成情報を使ってmdのソフトウエアRAIDを構成するドライバ
>>485
本物のRAIDカードというのは、RAIDカード単体で本体のCPUの補助なしでRAIDを行なえるカードのこと。
例えばXORアクセラレータが付いてるだけのRAIDカードは本物のRAIDカードじゃない。
具体的にはIntel IOPが載っててバッテリーバックアップユニットが付けられるRAIDカードは本物のはず。
個人的には非標準的なドライバをあまり信用できないのでmd派。本物高いし。
0489486
2009/01/10(土) 13:36:09ID:odJ/+a4Y俺も自作初めたばかりの無知な頃にフェイクRAIDで痛い目みたわw
nforce2のraidだったかなぁ・・・raid0速い!って喜んでたわ
>>488
大学の研究室である程度まとまった金でRAID組まされることあんだよね。
研究室の共用サーバにインストールするんだが、何度か面倒な目にあった。
もう全部業者任せにしようかと思うわ・・・
自分でやるならやっぱmdだな
0490login:Penguin
2009/01/10(土) 14:22:42ID:8L5rYSxpWindowsにもSoftware RAIDはついてるのに、なぜか活用されてないね。
なんちゃってRAIDなんかよりそっち使えばいいのに・・・
0491login:Penguin
2009/01/10(土) 15:34:13ID:sulqjtr00492login:Penguin
2009/01/10(土) 16:15:58ID:o9R1cT+y0493login:Penguin
2009/01/10(土) 17:02:57ID:3dK3csV8md4ramって移植版のドライバがある。
ライトバックキャッシュを利かせて使いたいが開発が滞っているみたい。
壊れてもいいデータしか置かないけど2chブラウザのログ置きに最適。
0494login:Penguin
2009/01/12(月) 01:59:14ID:/Son47ik>md: LinuxのソフトウエアRAIDドライバ
>dmraid: BIOSのRAID構成情報を使ってmdのソフトウエアRAIDを構成するドライバ
じゃあ、biosraidがdmraidで動作しているからといって、ハードウェア処理されているわけでなく、
結局は、linuxのmdドライバでraidの処理がなされているわけなんだ。
biosraidにプロミスってあったから、これはオンボードでハード処理されて、
linuxには一個のディスクとして見せているんだと勘違いしていました。
0495login:Penguin
2009/01/12(月) 04:47:57ID:nRZhkl6m0496login:Penguin
2009/01/12(月) 13:44:42ID:/Son47ik0497login:Penguin
2009/01/12(月) 17:33:13ID:odrqpoZ2http://itpro.nikkeibp.co.jp/article/Keyword/20070824/280335/
0498login:Penguin
2009/01/12(月) 17:50:42ID:gg7V03n9http://www.promise.com/
IDE,SATAのインターフェイスを作っている会社。
他にもストレージ関係をやってるのかな?
ハードウエアRAIDの会社のイメージは無いな。
0499login:Penguin
2009/01/12(月) 22:04:06ID:/Son47ik昔、大きなraidのpciカードの黄色い外箱に、promiseと書いてあったからだ。
0501login:Penguin
2009/01/13(火) 21:30:47ID:UzNBMlnyソフトウェアRAIDでミラーリングしています。
技術力の不足から、amd64をあきらめてi386バージョンを
インストールしてやり直そうと考えているんですけど
この場合、RAIDを解除して1台目のディスクにi386をインストールした後に
2台目のディスクからデータをコピーして、改めてミラーリングの設定にする
ということは可能ですか?
0502login:Penguin
2009/01/13(火) 22:15:55ID:UQqV5nIq0503login:Penguin
2009/01/13(火) 22:26:17ID:UzNBMlnydegradedってのを調べて見ました。
それって、一時的ってことですか?
それとも、i386で改めて新しくRAID1を構成しても
後遺症的なものが残るという意味ですか?
0504login:Penguin
2009/01/13(火) 22:37:13ID:JlH/mAiu0505login:Penguin
2009/01/13(火) 22:40:26ID:UzNBMlnyインストールするのは、1台目のHDDだから
2台目のドライブは、ケーブル抜いてしまえばいいんじゃないかと考えてたんですが。
インストール後に、ケーブル繋いでマウント・・・ってのは無理なんですか?
0506login:Penguin
2009/01/13(火) 22:47:11ID:JlH/mAiu普通にマウントしてコピーしてから、mirrorの設定して2台目上書きすればいいと思うよ。
0507login:Penguin
2009/01/13(火) 22:50:34ID:UzNBMlnyありがとう。細かな手順調べて、実行してみます。
0508login:Penguin
2009/01/14(水) 14:35:19ID:0aFf9qq6>>497
ためになりました。ありがとう。
0509login:Penguin
2009/01/15(木) 01:12:00ID:9+zR18Pidmraidは、つまり、mdのラッパーオブジェクトのようなものだと考えればいいかな。
ただし、>>497 で引用されているように、
dmraidは、biosで管理されているraidの設定情報を使用しているわけか。
だから、ataドライバの読み込みの時点で、代わりにdmraidが使用されて、
そのraid構成が有効化されるのだね。
すなわち、dmraidでは、通常の非アレイディスクのように認識させることも可能なんだ。
この考え方で、
合ってますでしょうか。
0510login:Penguin
2009/01/15(木) 14:26:29ID:knA7Hlz9HDDに不具合が生じた場合、それを確認する方法(ツール・アプリ)はないのでしょうか?
0511login:Penguin
2009/01/15(木) 14:34:19ID:Rfu3LZdb0512login:Penguin
2009/01/16(金) 02:11:08ID:32Awgl8B障害発生時に備えて、試しに、ハードディスクを一つを外してみました。
BIOSraid画面でエラー表示が出た後、そのままlinuxブートローダーが起動しました。
device-mapperの処理で、failure, no such deviceを表示、そして、no volumeになりました。
ついに、Kernel Panicで停止しました。
レイドアレイが正常ではないのでそれはそうだろうと思い、
BIOS画面にて、そのRAIDモードを解除し、通常のIDEモードに切り替えました。
単体のハードディスクで起動を試みようというわけです。
ブートローダーが動き、カーネルの読み込みが始まります。
しかし、先ほどと同じような具合で、device-mapper関係のエラーで、kernel panicで停止しました。
これは意外でした。
自動的に、単体のハードディスクのための処理へと切り替えてくれないようです。
つまり、もしもhddが片方故障した場合には、必ず再び同じraid構成を機能させておくということになると思います。
しかし、あえてここで、device-mapperの使用を解除して、通常の起動に切り替えるというようなことはできないのでしょうか。
教えてください。
0513475
2009/01/16(金) 03:08:08ID:32Awgl8B連投ですみません。別件の問があります。
>>475 のdfコマンドの結果は、fedora10でのfakeraidのミラーリング構成でのものです。(同じものを下に引用しました)
-----------------------------------------------------------------------------
<Fedora10での結果>
/dev/mapper/VolGroup00-LogVol00
476871688 55799360 396848584 13% /
/dev/sda1 194442 21960 162443 12% /boot
tmpfs 896296 1152 895144 1% /dev/shm
-----------------------------------------------------------------------------
ところが、fedora7での同様の構成(マザーは異なっている)にて、dfコマンドをすると、
下記のようになります。
これらをみると、Fedora7では/bootなど特殊なディレクトリは、/dev/mapper/pdc_dacjp1で管理されていることがわかり、
そしてfedora10では/bootが/dev/sda1にて直接管理されているようです。
fedora10にて、教えていただいたように「dmraidコマンド」でraidの構成の具合を確認したところ、>>481 のように正常のようです。
このFedora7と10でのraid1における、/bootに対する表示の差は何を意味しているのですか。
Fedora10になって、dmraidがより高度化して、/dev/sdaでraid1をラッピングしているわけなのでしょうか?
----------------------------------------------------------------------------------------
<Fedora7での結果>
Filesystem 1K-ブロック 使用 使用可 使用% マウント位置
/dev/mapper/VolGroup00-LogVol00
148297964 29496048 111147312 21% /
/dev/mapper/pdc_dacjp1
101086 19396 76471 21% /boot
tmpfs 2032296 0 2032296 0% /dev/shm
0514login:Penguin
2009/01/16(金) 03:13:14ID:rwDT7nUQ0515login:Penguin
2009/01/18(日) 13:33:02ID:mOdWiiXBraidtoolsのほうがバタ臭いけどいい
mdadmで一番むかつくのが良くわからないタイミングで
ディスクがspareにされて、元に戻したいのに戻せない。イライラ
0516login:Penguin
2009/01/18(日) 22:48:12ID:06Dcpdo5HDDというよりSATAカードが死亡したっぽい。
(玄人志向とPromiseのSATAカードの2枚挿しで8つHDDをくっつけてる。
今回は玄人志向がお亡くなりになった。)
再起動してカードは復活したみたいなので
(配下のHDDが/devに戻ってきた&badblocksが通った)
HDDをArrayに追加しようとしたが
配下のHDDが全部faulty removedに落ちちゃってて
mdadm -Aでもcannot get array info for /dev/md0と表示されエラー。
このスレの64氏の現象に近い気がするが、
superblock書き換えなどは出来る自信ないので
mdadm -Cで再度Array構築しなおした。
ここんとこバックアップをサボってたから結構痛いわー。
つーかもうSATAカードとかあまり使わないで済むように
ちゃんとしたファイルサーバ組んだ方がいいな。
0517login:Penguin
2009/01/19(月) 00:09:08ID:L7Ubbq6rカード単位でお亡くなりになるケースは結構ありがちだし対策したいところ。
カードを1枚にしてそこに全部ぶら下げればカードが死んでも
全部見えなくなるだけでsuperblock更新されないから、516は防げるかも。
同じ考え方で、台数が必要な場合はSATAカード2枚準備して、
SATAカードをまたいでmdのRAID1を組んでそれを繋げるとか、
同じカードのSATAポート群とかカードのRAID機能でRAID5/6を
作ってそれをmdで繋げるとか。
0518login:Penguin
2009/01/19(月) 06:19:37ID:CHw0KQY0やめてください、そういう表現。
葬式の臭いがしてくる。
0519login:Penguin
2009/01/19(月) 10:43:16ID:L7Ubbq6r0520login:Penguin
2009/01/19(月) 17:06:36ID:426uxyHi0521login:Penguin
2009/01/19(月) 17:30:39ID:/o7gcRDM0522login:Penguin
2009/01/19(月) 17:38:24ID:hR5pv9yI次に使うまでに
一度「バタ臭い」の意味を調べた方がいいと思う。
0523login:Penguin
2009/01/19(月) 19:31:23ID:AVvVP96W(形)
〔バタはバターの意〕西洋風な感じがする。また、西洋かぶれしている。
「―・い表現」「―・い顔立ち」
◎きなくさ・い 4 【きな臭い】
(3)なんとなく怪しい。うさんくさい。
「どことなく―・い話」
三省堂提供「大辞林 第二版」より
0524login:Penguin
2009/01/19(月) 20:42:12ID:8LWc0G4T0525ライナス
2009/01/19(月) 21:21:54ID:CHw0KQY00526login:Penguin
2009/01/20(火) 11:04:32ID:QUoqwrOBでも、もし、片方が壊れて、もう片方に不良セクタ君があったら、データは損傷してしまう。
そこで、raid5の出番である。
ご存知、ストライプという概念を設けて、パリティーによって不良セクタによる損傷を補償できる。
でも、raid5は、ディスク2台が同時期に壊れてしまったら、もはやすべて終わりである。
で、そこで、raid6の出番。今は、6(二方式の内、パリティーを分散する方式の方)が一般化しているんだね。
ストライプという概念は同じであるけど、パリティーを強化して、ディスクが2台壊れても平気なようにしてあるんだね。
ディスクが安価な今は、冗長な構成でも苦しくないね。
カードが壊れたという人が↑の方にあったけど、カードってそんなに壊れやすいの?
カードが壊れてもディスクが無事なら、復旧は易いんじゃないのですかね。
それから、そもそも先に不良セクタをマークしておいたら、raid1でもいいんじゃないかな。
0527login:Penguin
2009/01/20(火) 11:39:38ID:tmOakhLn壊れた結果ムチャクチャなデータを
デタラメに書き込まれたら
どう頑張っても復旧でけんだろう。
カードが壊れやすいかどうかは
これまたカード & 運次第かと。
俺は一度も壊れた経験ないけど。
0528login:Penguin
2009/01/20(火) 11:45:10ID:gBT8fCPT日頃の行いが悪いからHDDが壊れる。
0529login:Penguin
2009/01/20(火) 13:11:48ID:jayBGkBwなんつーか理解してないな
> ご存知、ストライプという概念を設けて、パリティーによって不良セクタによる損傷を補償できる。
RAID5でもRAID1でも、単体ではdegradedでの不良セクタに対処できない点は同じ
> カードが壊れてもディスクが無事なら、復旧は易いんじゃないのですかね。
それが>>517
> それから、そもそも先に不良セクタをマークしておいたら、
経時の不良セクタ発生に対処できない
まぁカードが壊れることはそれほど多くない。
業務で大量に管理していれば結構見るけれど、個人でやる分には当たる確率は低い。
0530login:Penguin
2009/01/20(火) 18:33:36ID:n7Hnf9Lkその後色々試したがなんかカードのBIOSから一部のHDDがみえたりみえなかったり
ついにはbadblocksも通らないHDDが出始めた
もしかしたら今回の犯人はカードじゃなくHDDがカードを巻き込んで落ちたのかも
と思っていた時
海門のニュースを知った
6台が該当です。
本当にありがとうございました。
0531login:Penguin
2009/01/20(火) 18:46:34ID:AAZq+mqB530に同情するよ。サーバーが落ちても気は落とすな。
0532login:Penguin
2009/01/20(火) 20:46:45ID:3icForSX基本中の基本
RAID1ペア組むときはメーカーから変える
0533login:Penguin
2009/01/20(火) 21:20:12ID:QUoqwrOB=sea gate
ファームウェアの不具合の件ですよね
困るよなあ、といいつつ、私も、そのメーカーのディスクでした。
ハードディスク買うなら、”海門”と決めていたんです。なんか、壊れにくいイメージがあるから。
壊れたことがない。かちゃん、かちゃん、かちゃん、なんて絶望的な音をさせたことがないということです。
0534login:Penguin
2009/01/21(水) 11:28:11ID:KNJKiqg2交換したら容量不足で使えないという悲しいことが
ちょくちょくあったが、
最近は違うメーカーでも問題が起きなくなったので
ありがたい。
0535login:Penguin
2009/01/21(水) 12:56:36ID:1/Cy7HwZ保証されてるのは例えば500GBなら500,000,000,000Bまで。
0536login:Penguin
2009/01/21(水) 13:04:54ID:xEzc7nEM750GBのディスクを買えばいいのに。
0537login:Penguin
2009/01/21(水) 14:35:01ID:Lxj+eixAバカか バカなのか
0538login:Penguin
2009/01/21(水) 15:07:49ID:+OFl4BASばっちりRAIDカードが壊れたことあります。
というか、フェイクRAIDしか無いカードをmdで使っているのに
RAIDカードと言うのか?とは思います。
玄人志向の4ポートPCI SATAカードでした。
C7のSATA2ポートなM/BでRAID5をやるために使いましたが
一年弱で、4つのうち一つのポートが動作しなくなりました。
予備HDDはあったので、HDDを入れ替えても認識せず
よくよく調べると、カードのほうが死んでいたというオチ。
急場をしのぐために、オンボードのSATAポートとの混在RAID5として
そのまま2ヶ月程度、問題なく動きました。(その後SATAカードを交換)
今はPCIeの1430SAで、あえてmdドライバー。
ところで、Linuxでホットスワップで再認識する条件とか手順ってどうなるのでしょうか?
とりあえず、普通に抜き差しするとダメっぽいのですが…
チップやドライバーではなく、玄人志向のカードがホットスワップ非対応だったのかなぁ…
0539login:Penguin
2009/01/21(水) 15:42:19ID:C3awCYv6多分カーネルが古いのが原因。
0540login:Penguin
2009/01/21(水) 15:47:09ID:xqg3zZth# echo 1 > /sys/block/sdX/device/delete
0541login:Penguin
2009/01/21(水) 15:47:43ID:NpsqSYmx豪快なロット不良見ると怖くなるな。
0542538
2009/01/22(木) 02:32:04ID:9i3fv5RCありがとうございます。試してみたらできました。
というかオチがあります。
これ、取り外した時点でデバイスが消えないのは仕様なのでしょうか?
たとえば、普通にfdisk -lには出てきます。
HDDを止めて再スピンアップさせることで初期化が行なわれて
現在接続されているHDDの情報に書き換わるという挙動のようです。
で、以前はHDDの停止と再スピンアップなどは行なわなかったために
差し替え直後のfdisk -lで、HDD情報が更新されていないことを理由に
ホットプラグが正常になされていないと判断していました orz
#/sys/block/sdX/device/下のファイルについては
#どこ探せば情報が見つかるものでしょうか…
0543login:Penguin
2009/01/22(木) 15:19:59ID:CwsVQNf2> ロット揃えたほうがパフォーマンス良さそうなので
意味が分からない
0544login:Penguin
2009/01/22(木) 15:31:18ID:7lkmeW2Z型番同じでもファーム違うと微妙にキャッシュアルゴリズム変わってたりするし。
その場合ベンチの結果も微妙に変わる。
アクセス速度近い方が効率よさそうじゃん。
当然同じようにアクセスするディスクでロットまで同じだと壊れるのも一緒になるから
ロットくらいはばらした方が良いって言う人もいたけど。
0545login:Penguin
2009/01/22(木) 20:50:46ID:u0UB26l/まぁ結局はRAIDに何を求めるか、なわけだが、
あるのかかどうか分からないパフォーマンス向上を目当てに
同時故障リスクを採る選択は、俺はしないね
0546login:Penguin
2009/01/22(木) 21:43:17ID:xRfSeFjvそんな/sysの下の物体の情報って、一体どこで見つけるの?ソース?
俺はいままで
sdparm -C stop /dev/sda
とかしてたよ。
0547login:Penguin
2009/01/22(木) 21:57:04ID:u0UB26l/基本はソースだけど、その場合むしろsdparmの方がいいんでは?
/sys直叩きだといちいちカーネルの仕様変更追っかけないといけなくなる
0548login:Penguin
2009/01/23(金) 01:31:55ID:iL0wYbEo昔って何十年前の話?
0549login:Penguin
2009/01/23(金) 01:35:42ID:gP0PPzWy0550login:Penguin
2009/01/23(金) 03:37:27ID:93gY8ymTメーカーバラバラだったら同じ所からは二度と買わんわw
0551login:Penguin
2009/01/23(金) 12:07:20ID:3M4C0RkK俺の周辺の風潮では5年前でも
安全のためにロットは揃えるな
だったが。
ま、地方によって違うんだろうな。
0552login:Penguin
2009/01/23(金) 13:08:14ID:7Cxp47f1取り出して組み込んでいたから同じロットだったんじゃないかと思うんだが、記憶が確かではない。
それが俺のRAID初体験なのでロットのことまで気が回らなかった。
HDD組み込み済みのRAIDボックスはどうなんだろうか?同一ロットにならないようにしているのかな?
ちなみに自分で組むときは、新しく買ってきたやつと予備としてストックしてあるやつを混ぜて使うようにしている。
0553login:Penguin
2009/01/24(土) 04:31:39ID:ptL5pKyYシーゲートのファームウェア不良の件、
ウインドウズ用には、不具合検出用のツールがあるが、
どうしてリナックス用にはないのだろう。
リナックスユーザーは多いだろうに。
それとも、あるんですか?
0554login:Penguin
2009/01/24(土) 07:30:04ID:u99vPwbM切捨てられてるんだろう。いつものこと。
0555login:Penguin
2009/01/24(土) 13:11:53ID:Di00IfqvCD版のSeatoolsでブートすりゃいいんじゃないかと思うが
0556login:Penguin
2009/01/24(土) 21:47:35ID:ptL5pKyY0557login:Penguin
2009/01/28(水) 00:26:06ID:ir2fam9uで、cat /proc/mdstatで状態見るとリビルドしてるけど なぜか[UUU_]
はあ?と思ってmdadm -D /dev/md0 してみると
/dev/sde1 がspare rebuildingになって勝手にspare扱いになってる。
意味がわからない。スペアなんか作りたくないし。そんな指定はどこにもしてない。
エスパーレスおながいします。
0558login:Penguin
2009/01/28(水) 00:38:08ID:LK11AqVSzero superblockした?
0559login:Penguin
2009/01/28(水) 07:15:42ID:ir2fam9usdb1〜sde1 全部にmdadm --zero-superblock してみましたが
変わりませんでした。
こうなるのも謎です。なぜ[4]なのか・・・
>md0 : active raid5 sde1[4] sdd1[2] sdc1[1] sdb1[0]
0560login:Penguin
2009/01/28(水) 07:34:42ID:LK11AqVSパーティションがあるとそうなるかも…
# mdadm --examine /dev/sdb1
するとどうなります?
0561login:Penguin
2009/01/28(水) 07:39:07ID:ir2fam9u/dev/sdb1:
〜
(長いので省略、多分あまりこの部分は関係なさそうです)
〜
Number Major Minor RaidDevice State
this 0 8 17 0 active sync /dev/sdb1
0 0 8 17 0 active sync /dev/sdb1
1 1 8 33 1 active sync /dev/sdc1
2 2 8 49 2 active sync /dev/sdd1
3 3 0 0 3 faulty
4 4 8 65 4 spare /dev/sde1
0562login:Penguin
2009/01/28(水) 13:57:54ID:3QasENir単にhdeが故障してfaultyになっただけなんでわ。
hde交換してみれば?
>>431みたいなこともあるし、
SW-RAIDのハードウェア異常時の表示は
あまり信頼しない方がいい。
0563login:Penguin
2009/01/28(水) 13:59:12ID:3QasENir× あまり信頼しない方がいい。
○ あまり信頼できない。
だね。
0564login:Penguin
2009/01/29(木) 01:18:01ID:PTiNMDCX他のデバイスもexamineしてみると、違いから何か分かるかもしれない。
あと新規構築時にはパリティが不整合の状態なのでresyncするのが通常動作。
でもresync時の追加パーティションってspare表示になる仕様だったっけか?
0565login:Penguin
2009/01/29(木) 06:27:34ID:12B6/rA+hdparmでスタンバイに移行するように設定しても大丈夫でしょうか?
0566561
2009/01/29(木) 07:16:39ID:WiRmM86xsde1[3]になりました。原因はよくわかりません。
0567login:Penguin
2009/01/29(木) 19:37:09ID:PTiNMDCXたぶん構築時リビルドだろう
ためしに1台をfaulty removeしてもう一回追加、同じ現象になったら間違いない
0568561
2009/01/30(金) 21:48:37ID:pZmCaYyi今回は初めての事象なんですが
Linuxかmdadmがアレイ対象のドライブではないどこかに情報覚えてるってことですよね
それを消せればいいような気がします
0569login:Penguin
2009/01/31(土) 21:10:43ID:INV0scHx調べるとしたら設定ファイルとしてはmdadm.conf
場所は/etcとか/etc/mdadmとか
0570login:Penguin
2009/02/08(日) 22:42:30ID:Ey2JVBl4みんな知ってるかなぁ?RAID0ってgrowでボリュームを大きくできないんですよ。
で、当然のごとく、RAID10もできないのですよ。
4wayのRAID5をでかいHDDに差し替えていって、grow機能で
250GBx4から500GBx4に移行したことがあったんだけど…
今回は1TBx4に差し替えつつ500GBパーティションx4の
RAID5とRAID10を作った上で、データを移し
1TBパーティションx4に移行しようとして
いざそこまできてgrowできないことを知ったという orz
こういうのをトホホって言うんだと思った。
まぁ、reiserfsからXFSへの切り替えもあったし
なんとかmissing付きでRAID10を起動したりして片付けた。
将来もっとでかいHDDに移行するときは
それなりの用意をせざるをえないなぁ…
0571login:Penguin
2009/02/08(日) 23:27:56ID:Nj6iWNXA0572login:Penguin
2009/02/09(月) 12:39:22ID:9FAXyoAIRAID自体のボリューム拡張できなくても
実用上は問題ないんじゃ
0573login:Penguin
2009/02/09(月) 12:46:53ID:Eg6suWBIえらいおっさん臭いじょしこうせいだな
0574初心者の通りすがり
2009/02/16(月) 21:37:32ID:4jXnyPos誰かお助けを・・
1、mdadmなどのソフトウェアRAIDで、HDDの不良セクタを自動回避するプログラムは組み込まれているのでしょうか?
それとも、セクタ不良の箇所が出た時点で、HDD交換になってしまうのでしょうか?
2、もし、上記のシステムが組まれている場合、HDDに標準で搭載されている機能として、実際に使用者が確認出来る不良セクタは
ハードディスクの隠れ領域の余裕空間に代替された不良セクタがそれ以上代替出来る空間がなくなって現れる使用(いまどきのHDDはみなそうですよね?)はずですが、
代替のセクタが現れている時点でセクタのゆとりがなくなっているわけで、そのため、そのセクタを不良セクタとして認識する必要があると思います。
しかし、RAIDの場合、すべてのHDDの同じアドレスのセクタを使用不能にする必要(仮に他のHDDのセクタが正常でも、1うのHDDが以上であれば)があると考えられますが、
これらの対応はされているのでしょうか?
3、可能であれば、RAIDとしてアレイに組み込む前に、HDDのセクタチェックをしてから、アレイに組み込めればと思うのですが、
そのようなLinuxプログラムはあるのでしょうか?(ものすごい時間かかるPGのような気がしますが・・)
RAIDその他に関して、初心者で的外れな質問の可能性がありますが、お教えいただければ幸いです。
よろしくお願いします。
0575初心者の通りすがり
2009/02/17(火) 01:22:44ID:FIlRA3Ek3、のセクタチェックは、mkfs の -c オプションがその任を担っている事が分かりました。
またbadblocks という同じ機能を持つものも発見しました。ただどうやらRead checkだけのようです。
0576login:Penguin
2009/02/17(火) 01:34:14ID:rlTL3AkS0577login:Penguin
2009/02/17(火) 01:56:17ID:ljmr48rY1: 不良セクタの回避は通常HDDファームのレイヤの仕事。
mdのレイヤだと特になし。FSは実装次第。
SMARTで異常値が出るような状態なら普通は交換処置。
2: HDDのセクタ代替処理は内部的なもので、破損セクタが見つかった場合
そのLBAに対応する物理セクタが置き換わるだけで外から見ると何も変わらない。
従って
>すべてのHDDの同じアドレスのセクタを使用不能にする必要
はない
3: 上に書いたようにセクタチェックは別のレイヤの仕事。
RAIDボリュームの一貫性検査ならconsistency-checkとかで検索。
ってかmkfs -cしてからRAIDに組み込むって手順が謎すぎるんだが
■ このスレッドは過去ログ倉庫に格納されています