トップページunix
983コメント275KB

[次世代] ZFS Part2 [ファイルシステム]

■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@お腹いっぱい。2007/06/13(水) 15:28:31
64ビットのチェックサム、128bitアドレッシング、RAID、ホットスペア、
スナップショット、ストレージプールなどの豊富な機能を備え、
次世代のファイルシステムとして期待されるZFSについて語るスレです。

○前スレ
[次世代] ZFS [ファイルシステム]
http://pc11.2ch.net/test/read.cgi/unix/1146631270/

○関連スレ
/**ファイルシステム総合スレ その7**/
http://pc11.2ch.net/test/read.cgi/linux/1173530292/

○関連リンク
Solaris ZFS
ttp://www.sun.com/software/solaris/zfs.jsp

OpenSolaris
ttp://www.opensolaris.org/os/

ソース
ttp://opensolaris.org/os/community/zfs/source/
0481名無しさん@お腹いっぱい。2007/11/04(日) 06:52:52
>>480
キタコレ。
readme読むと、いくつかの機能がまだ完成してないらしい。
GUIDパーティションで既存のFSとも共存させれるらしい。

今、余ってるディスクもMacもないから、テストできないなー。
04824802007/11/04(日) 16:02:51
>>481
試しにUSBメモリをZFSにして、それを抜き差ししたらカーネルパニックしたw
アンインストールの仕方がよく分からんので注意w
0483名無しさん@お腹いっぱい。2007/11/04(日) 16:33:10
しかも、一度ZFSにして、カーネルパニックするとリカバリー中と出てフォーマットも含めすべての操作ができなくなる。
つか、そもそもZFS 1.1はLeopard beta 用
0484名無しさん@お腹いっぱい。2007/11/07(水) 15:57:22
Mac+ZFS
http://blogs.sun.com/jimlaurent/entry/testing_macos_x_read_only
0485名無しさん@お腹いっぱい。2007/11/08(木) 00:33:07
>>479
ありがとう
週末にZFS on FreeBSDやる予定なのでたすかります

0486名無しさん@お腹いっぱい。2007/11/08(木) 00:40:14
ついでに質問なんですが
diskのSATA write casheはonのままでもよいでしょうか?
softupdateみたいにoffだと性能がでなくて、しかたなくonがデフォルトとかの情報希望
0487名無しさん@お腹いっぱい。2007/11/15(木) 01:05:53
やっと時間が取れてFreeBSD amd64で
zpool create tank /dev/ad6s2
したらSEGVになるんだが
gdbでぱっとみstrlen()でおちている。
何このクォリティ。
ホームを置こうと思ってたが、ちょとこわいね。
0488名無しさん@お腹いっぱい。2007/11/16(金) 01:17:47
zpoolをつくりなおしてgdbでみたら
geom系の関数が工ラーになっていて、
それをassertでおとしていたというオチ。
NTFSのボリュームラベルが日本語だったので
gIabelが発狂したらしい。

0489名無しさん@お腹いっぱい。2007/11/16(金) 08:15:01
まずは、ホームデイレクトリを移そうと
compression=9でコピーをはじめたら
カーネルスレッドが8本ほどアクティブになってシステムの反応が悪化。
giantlockをとられている感覚に近い。
そのうちkmemなんとかでパニックした。(loader.confで1Gまで上げてるのに)
compressionをはずしてやりなおしたら、うまくコピーがおわった。
0490名無しさん@お腹いっぱい。2007/11/16(金) 09:24:51
>>486
zfsはライトキャッシュを活用するように作られてるよ。

>>487-489
内容のないグチ日記を書きたいだけならチラシの裏にしとけ。
0491名無しさん@お腹いっぱい。2007/11/16(金) 10:32:00
批判的な記事はご遠慮ください。
(他と比較して結果の劣る)ベンチマークの公開はご遠慮ください。
0492名無しさん@お腹いっぱい。2007/11/16(金) 11:45:41
書くなら詳しく書けって言ってんだ。
自分の環境で起こる問題はどこでも再現すると思ってるバカは扱いに困るな。
0493名無しさん@お腹いっぱい。2007/11/16(金) 13:07:08
せっかくブログってもんがあるのにね
0494名無しさん@お腹いっぱい。2007/11/17(土) 03:22:28
いいよ。遠慮せずどんどん書いてくれ。
0495名無しさん@お腹いっぱい。2007/11/17(土) 03:42:34
>>488 は参考になったけど
0496名無しさん@お腹いっぱい。2007/11/21(水) 08:31:32
WCはうまくつかっているということであんしんあんぜんってことですね。
今のところ安定して動いています。
zfs snapshotが一般ユーザで実行できるのと、.zfs/snapshot/~がマウントされっぱなしになるのが気になるところ。
0497名無しさん@お腹いっぱい。2007/11/23(金) 21:55:49
ZFS最高!!
0498名無しさん@お腹いっぱい。2007/11/27(火) 15:10:35
これがすごく楽しみ…… 妄想してたものが現実に
http://www.opensolaris.org/os/community/zfs/version/10/
http://jp.opensolaris.org/os/community/arc/caselog/2007/618/onepager/
0499名無しさん@お腹いっぱい。2007/11/27(火) 21:00:20
>>498
おー。おもしろそう。
The content of the cache devices is considered volitile, as
is the case with other system caches.
ってあるけど(関係ないけどタイポ発見)、たとえばi-ramみたいな
ので作ってもいいのかな。
0500名無しさん@お腹いっぱい。2007/11/28(水) 01:40:07
>>499
アリだと思うよ.volatile扱いでいいから相性も良いね.
個人的にはi-RAMはECC無いのが怖いしHypeDriveは高杉だしで,
ANS-9010に一縷の望みをかけてるのだけれど.
駄目ならFlashベースの奴だね……
あるいは電気代はアレだが余ったマシンをiSCSI targetにするとか.
0501名無しさん@お腹いっぱい。2007/12/01(土) 11:48:14
>>438
おおお、たしかにそれいいな。
てかVFS層でそのあたり拾ってくれよ。
FSは好きなの選びたい。
0502名無しさん@お腹いっぱい。2007/12/01(土) 12:05:51
そんなところに挟んだらキャッシュから読んだデータの整合性チェックができないんじゃないか?
キャッシュが腐ってることを検出したらストレージへ読みに行くらしいし。
05035022007/12/01(土) 12:19:19
すまん、501を498宛だと勘違いしてたよ。。。
0504名無しさん@お腹いっぱい。2007/12/16(日) 15:53:44
ZFS on rootなFreeBSD環境をmicroSD上に構築してみる
http://bsdhouse.org/yamasa/diary/20071119.html
0505名無しさん@お腹いっぱい。2008/01/03(木) 18:56:08
複数ディスクをJBODで構築した場合、ディスクに一つ障害が出たらファイル全部喪失してしまうんでしょうか。

0506名無しさん@お腹いっぱい。2008/01/03(木) 19:14:25
基本的にそういう理解でいい。
残りのディスクだけで完結しているファイルは、なんとかサルベージできるかも知れんけど。

ちなみに、スレ違いだな。
0507名無しさん@お腹いっぱい。2008/01/03(木) 20:52:50
>>506
ZFSでも一人が死ぬとのプール全体が終わってしまうのですね。
ディスクの足し算引き算が容易にできるFSを探しててzfsはどうかと思った次第。

Windows Home Serverの方がイメージに近いので、そっちで検討してみます。
0508名無しさん@お腹いっぱい。2008/01/03(木) 21:05:06
事前に抜く予定が分かっていてファイルの移動を
ボリュームマネージャにやらせるのは zfs でできるんじゃないっけ?

もしくは RAID5 構成で1本抜いて一本挿し直してみたいなことを想像してる?
0509名無しさん@お腹いっぱい。2008/01/03(木) 21:18:56
>>508

作りたいのは自宅ファイルサーバ。
録画機能つきTV(REGZA)のデータandその他もろもろデータ置き場。

(1)とにかくでかい1ボリュームが欲しい。容量が足りなくなったらHDD足すだけでOK。(ZFS,WHS)
(2HDD故障でファイル消失しても泣かない。でも正常なディスクのファイルが読めなくなるはやだ。(WHS)
(3)なるべく低イニシャルコストで。(ZFS)

こんなところです。
(1)(2)はFuse使ってunionfsの亜種みたいなのを作って実現してみようかとも思ってます。
0510名無しさん@お腹いっぱい。2008/01/03(木) 21:22:44
>>508
なので計画的にディスクを抜くというよりも障害時の影響範囲を最低限にしたいんです。
でも、RAID1,5,Zのようなディスクを余計に消費してまでの完全性はいらないんです。
0511名無しさん@お腹いっぱい。2008/01/05(土) 12:59:08
>>508
ZFSはディスクを足すのは簡単だけど、減らすことはできないと思ってたけど。

>>509
ファイルシステム以下の層でやるより、ディレクトリ分類とシンボ
リックリンクで済ませた方が早くない?
0512名無しさん@お腹いっぱい。2008/01/08(火) 14:24:39
>>511
> ZFSはディスクを足すのは簡単だけど、減らすことはできないと思ってたけど。
仕様的にはできるはずなのでは。「まだ実装されてない」って話だったが、
今の状況は知らんw

> ファイルシステム以下の層でやるより、ディレクトリ分類とシンボ
> リックリンクで済ませた方が早くない?
オレもそう思う。
0513名無しさん@お腹いっぱい。2008/01/08(火) 16:41:45
それをファイル単位で自動的にやってくれるのがWHSのDEな.
DEはファイルシステムの層でやってるのではない.
0514名無しさん@お腹いっぱい。2008/01/08(火) 18:30:45
UNIX 板なんだから謎の略語は展開してあげるのが親切かと。
Windows Home Server の Drive Extender だよね。
0515名無しさん@お腹いっぱい。2008/01/08(火) 20:10:20
ZFSが/で使えないのは何がたりない?
早くUFSからオサラバしたいぜ
0516名無しさん@お腹いっぱい。2008/01/08(火) 21:11:18
OpenSolarisやFreeBSDならできるよ
0517名無しさん@お腹いっぱい。2008/01/09(水) 01:46:49
>>515
FreeBSDなら
ttp://wiki.freebsd.org/ZFSOnRoot
とか
ttp://blog.ninth-nine.com/diary/20071103.txt
とか >>504 とか
0518名無しさん@お腹いっぱい。2008/01/11(金) 02:23:46
>>480-484
zfs-102A 来た
http://zfs.macosforge.org/?p=6

Bugs Fixed in this Rev:
5448925: sync ZFS with Solaris build 72
5405398: zfs needs kqueue(2) API support
5602507: Leopard9A581: Kernel trap at 0×4d351d9c, type 14=page fault, registers:
5592757: Kernel panic when writing to a zfs volume
5482932: Raidz parity rewrite issue
5641577: ZFS: panic: zap->zap_u.zap_fat.zap_phys->zap_magic == 0×2F52AB2ABULL failed
5621659: assertion failed in /Users/local/zfs-101-latest_fixes/zfs_kext/zfs/zfs_dir.c line 730: error == 0
5643944: ZFS get/set and mountpoints are misbehaving
5645880: Finder copy and “delete” broken in zfs-101 plus fixes..
0519名無しさん@お腹いっぱい。2008/01/12(土) 00:39:11
>>518
記事出た。

128bit FS「ZFS」のMac OS X Leopard用最新ビルドが公開
http://journal.mycom.co.jp/news/2008/01/11/008/index.html
0520名無しさん@お腹いっぱい。2008/01/12(土) 02:08:59
にしても、基本的にOS X 10.6まで待ちというのは長いな…
0521名無しさん@お腹いっぱい。2008/01/13(日) 00:36:48
デカイファイルの削除時にカーネルパニックになる場合があるね。
基本的な動作は問題なさげ。
USBメモリー16本でRAIDZ組んでみた。ランダムアクセスで100MB前後出る。
が、速度の結果が不安定。zfs側で用意したキャッシュの分の速度も含まれてるのかも?
0522名無しさん@お腹いっぱい。2008/01/13(日) 00:48:28
>>521
> USBメモリー16本でRAIDZ組んでみた
> が、速度の結果が不安定
どうやってつないだ? そもそもボトルネックってどこよ?

> zfs側で用意したキャッシュの分の速度も含まれて
普通にそうなるだろ?
05235212008/01/13(日) 12:49:43
>>522
試したのは、102aを10.5.1で。
USB4ポートに4ポートハブと、16ポートハブ(中身は多段ハブだった)で確認。
ボトルネックは主にハブだね。USBメモリーはPQI U339Proで、ファームを最新に書き換え済み。
単体での20MB弱のリードを確認してる。

キャッシュについては、確かにそうだ。
ベンチの結果、ランダムリードで5MB/secから100MB/secまである。
パリティの処理とのカブリか、ベンチに使ったソフト(Xbench)の出来の加減なのか…
現状、zfsのraidzの挙動に詳しいわけではないので、もちょっと色々試してみる予定。
どっちにしても実際に動かす分にはかなり快適。
0524名無しさん@お腹いっぱい。2008/01/13(日) 13:07:52
>>521
それはデカイ問題じゃないのか
0525名無しさん@お腹いっぱい。2008/01/13(日) 13:51:05
10.5.1てマコス?
そのUSBポートはひとつのICHに繋がっていて合計60MB/sの帯域しかない。
それを超えたらもちろんcacheの速度。
0526名無しさん@お腹いっぱい。2008/01/13(日) 13:56:45
>>523
> USB4ポートに4ポートハブと、16ポートハブ(中身は多段ハブ…
USB2 って 480Mbps じゃなかったけ?
16 ポートって 4x4 の 2 段だろ? ここのトランザクション増えると
ここに足引っ張られるのみえみえじゃん?
05275212008/01/13(日) 20:27:39
お遊びにそんな怒らんでも。Leopardだね。>>519 のもの。
G5 Macだから、ボトルネックがチップセットにあるのか不明。
一応、ハブもダメだし、あっちこっちダメなのは認識してる。
でかいファイルでだめなのは再現性不明。7GB位のファイルで確認してたんだが…その後起きない。
次でたらバグ報告しようかと思ってるんだが。
0528名無しさん@お腹いっぱい。2008/01/14(月) 00:48:28
>>527
G5だとEHCIは32bit/33MHz PCIの下だから帯域は4ポートとその他諸々全部ひっ
くるめてPCI1本分。実はIntelよりマシ。
0529名無しさん@お腹いっぱい。2008/01/16(水) 02:14:29
なんでPCIの下のEHCIが、
ICH内蔵のEHCIよりマシなのか
ぜんぜん理解できない
0530名無しさん@お腹いっぱい。2008/01/16(水) 10:20:31
俺も理解できない。
先にUSBの仕様上上限がネックになるのに何故PCIの話持ち出してるのか。
0531名無しさん@お腹いっぱい。2008/01/16(水) 10:39:18
USB3.0 の話なのだよ
0532名無しさん@お腹いっぱい。2008/01/16(水) 20:08:26
>>529
IntelのICH内蔵EHCIはUSBポート全部合わせて60MB/sの帯域しかない。
(EHCI2個を内蔵しているものはそれぞれが60MB/sの帯域を持つ)
PCI-USB bridgeならば少なくともこの制限はない、ということ。
逆にもっと酷いものが載っているかもしれないが。

>>530
USBメモリを16本挿して遊んでるので「USBの仕様上上限」とやらは問題にならない。
重要なのは経路の一番細い部分。すべてのUSBはひとつのEHCIを経由するわけだから、
ここの帯域が速度の上限となる。だからEHCIがどこに繋がっているかの話をした。

理解していただけたか。
0533名無しさん@お腹いっぱい。2008/01/16(水) 21:49:55
なるほど。勉強になった。
0534名無しさん@お腹いっぱい。2008/01/16(水) 23:35:12
>IntelのICH内蔵EHCIはUSBポート全部合わせて60MB/sの帯域しかない。
>PCI-USB bridgeならば少なくともこの制限はない、ということ。
そんなの始めて聞いたゼ。
前段の、1EHCI辺り60MB/sしか出ないのかがホントなのか、はおいといて、
もしそうだとしても、後段の「PCI-USB brigde」ってのは結局のところEHCIなわけだから、
1つしかなければ、そこも結局60MB/s以上出るはずがないという話になると思うけど?
0535名無しさん@お腹いっぱい。2008/01/17(木) 01:20:54
なるほど、PCI-USB bridgeとやらが、何か*HCIとは違うすごい物という勘違いを
してるわけか。
0536名無しさん@お腹いっぱい。2008/01/17(木) 01:49:42
>>534
Intel製のICH内蔵EHCIが60MB/sでFSBに繋がっているということが
他社製のEHCIの構造に何か影響を及ぼしていると言っているのか?
もしそうなら言ってくれ。君のことは早々に忘れることにする。
そうでなくても大概スレ違いなので次のレスで完結してくれるようお願いする。

>>535
君はもう少し誰かの役に立つことを書け。
0537名無しさん@お腹いっぱい。2008/01/17(木) 08:18:30
何、Intel製のICH内蔵EHCIだけ(特に性能が悪くて、)
ICH内部バス(ふつうFSBとは言わない)からRootHubまで
60MB/s(480Mbps)しかないけど、
他のメーカ(NEC,VIA,SIS,AMDなど)のEHCIはそこは133MB/sの太さがある、と?
0538名無しさん@お腹いっぱい。2008/01/17(木) 09:17:04
揚げてみる
0539名無しさん@お腹いっぱい。2008/01/17(木) 10:01:43
負け惜しみはよくわかったからそろそろ他でやってくれないか。
0540名無しさん@お腹いっぱい。2008/01/17(木) 10:27:27
zfs の話題マダーーー? チンチン
0541名無しさん@お腹いっぱい。2008/01/17(木) 15:44:38
お互いほどほどにな。
元々の実験自体は中々面白いものだったし。
0542名無しさん@お腹いっぱい。2008/01/18(金) 11:40:59
ZFSファイルシステムのバグでJoyent、長時間ダウンを余儀なくされる
http://jp.techcrunch.com/archives/joyent-suffers-major-downtime-due-to-zfs-bug/
0543名無しさん@お腹いっぱい。2008/01/18(金) 12:45:11
>>542
それって、(リリース版Solarisでなく)OpenSolaris、それもsnv_43なんていう古いバージョンのを
使っててバグ踏んだだけじゃん。snv_60で9ヶ月ぐらい前にfixされてるバグだし。
http://discuss.joyent.com/viewtopic.php?id=19430
http://opensolaris.org/jive/thread.jspa?threadID=49020
0544名無しさん@お腹いっぱい。2008/01/18(金) 14:33:35
Joyentとしては、とにかく他人のせいにしとかないとね。
あ、TechCrunchのfounderは記事に名前の出てるOmnidriveのinvestorでもあるのか。
0545名無しさん@お腹いっぱい。2008/01/18(金) 16:21:01
つーか、このレベルの障害がこれだけ大きく出るってことは、逆に
それ以上のものはほぼ皆無ってことになるんじゃねーか? すげーじゃん。
0546名無しさん@お腹いっぱい。2008/01/20(日) 04:37:45
ゆとり脳かよ
05475212008/01/21(月) 01:43:43
Leopard上でのzfsだけど、デバイスのエラーが起きたとき(orパリティからの復帰時)にカーネルパニックおきるや。
6本のUSBメモリーでraidz2にして、1~2本抜いてその分新しいのをプールに追加すればほら元通りってデモやろうとしてたけど、
なんどやってもその場でパニックまたはzpool statusを実行した途端パニック。レポート送信ポチッとな。

あと、16ポートハブは出来が悪い。たくさんデータ転送してたら突然の電源断。熱が多いようだし、そのせいかもしれないが。
Mac/Winの複数環境で試したが、相性ではなさそう。一部ポートだけ接続不良とかもランダムで起きてる気がする。
さらに、機能とは関係ないが、コネクタがいい加減についてるから、差したブツがランダムで斜めになってるし。
16ポートにUSBメモリー直接差したら、ガタツキまくりのぶつかりまくりの離れまくり。熱問題も含めて延長ケーブル経由にしてしまった。

…高い遊びの割に、結果がしょんぼり。USBメモリーは当初の予定通りデータ入稿用ストックに。
ハブは、Mac Book Airを買ったら使う、かなぁ?
0548名無しさん@お腹いっぱい。2008/01/21(月) 02:30:08
ハブの電源容量は?16ポート全部使うとスペックオーバの場合もあるぞ。
0549名無しさん@お腹いっぱい。2008/01/21(月) 07:57:17
>>547
乙でした。
職業ライターさんかな?
だとしたら、スレ違いだけどVT -d、IOV特集とかお願い。
0550名無しさん@お腹いっぱい。2008/02/03(日) 14:00:28
USB端子の電力供給ってかなりショボイから、
6本同時接続自体が無謀な気もするんだが・・・
0551名無しさん@お腹いっぱい。2008/02/05(火) 21:03:20
>>550
ハブをバスパワーにしなければ無問題ではないかと
0552名無しさん@お腹いっぱい。2008/02/05(火) 21:13:34
WindowsでZFS使いたいなあ…
0553名無しさん@お腹いっぱい。2008/02/06(水) 09:52:49
>>552
他人に頼るな。自分でなんとかしてみろ
0554名無しさん@お腹いっぱい。2008/02/06(水) 10:00:37
C/C++は一応出来るけどWindowsのドライバなんて作ったことない…
まあ、6月ぐらいになったら暇になるから勉強のつもりで挑戦してみるか
0555名無しさん@お腹いっぱい。2008/02/06(水) 10:50:44
MS-Windows がまともに稼働するだけの機能は全部もってるんだろ? ZFS。
ZFS オンリーな環境で MS-Windows がまともに動いたらちょっと爽快かもな。
0556名無しさん@お腹いっぱい。2008/02/06(水) 12:58:56
>>555
いや機能だけでいうなら全然足りない。
0557名無しさん@お腹いっぱい。2008/02/06(水) 13:34:23
そうか? 例えば?
0558名無しさん@お腹いっぱい。2008/02/06(水) 19:26:05
このスレをNTFSで検索しれ
0559名無しさん@お腹いっぱい。2008/02/06(水) 20:21:52
「俺の根拠はお前が探せ」
0560名無しさん@お腹いっぱい。2008/02/06(水) 21:09:43
「半年ROMれ」
0561名無しさん@お腹いっぱい。2008/02/06(水) 21:12:54
>>558
re-parse file は symbolic link、sparse file は hole。
multiple stream は extended attributes (fsattr)だろうな。
以上なら UFS にもあるぞ。
extended attributes は Solaris 9 以降だったと思うが。

暗号化が実装途上だというのはすでに言及されてるからいいとして、
トランザクションとか他の事項については中身を知らんから何とも。
556や558は知ってるならちゃんと説明してくれ。
0562名無しさん@お腹いっぱい。2008/02/06(水) 21:46:10
Windowsが動作可能なFSって、動作するだけなら長いファイル名さえ使えれば
問題ないんでないの?
NTFSと同等の機能が必要かどうかは、OS上で何を動作させるか次第だと思うんだけど。
0563名無しさん@お腹いっぱい。2008/02/06(水) 21:48:43
横槍だがリパースポイントは、
その機構を利用してジャンクションやシンボリックを実現しているだけで、
本質はもっと汎用的な動的再解析のための枠組み。
Windowsでは階層化ストレージのために使っていたりするが、
独自の再解析のアルゴリズムを追加してリパースさせることもできる。はず。
寡聞にして聞いたことがないが。
0564名無しさん@お腹いっぱい。2008/02/06(水) 22:02:30
>>561
ZFS に sparse file(hole) ってあったっけ?
あと junction 相当の directory hardlink とかどうだっけ。

まあ機能制限ありなら FAT 上でだって XP は動くわけで、
そういうのでいいなら ZFS 上で Win 動かすのに問題はないんじゃない?

あと Win Server の Volume Shadow Copy って、これ snapshot 相当なの?
誰か使ったことある?
0565名無しさん@お腹いっぱい。2008/02/06(水) 22:04:16
NTFSの最もよく使われているであろう暗号化機能が
無いというだけで十分ではないか。
0566名無しさん@お腹いっぱい。2008/02/06(水) 22:06:06
最近のノートなビジネスクライアントでは必須だからな……
0567名無しさん@お腹いっぱい。2008/02/07(木) 03:21:19
じゃあ暗号化を考えなきゃ、使える、と?
0568名無しさん@お腹いっぱい。2008/02/07(木) 10:20:14
いや、暗号化なんてどうでもいいだろ。とりあえず大文字小文字の同一視と
ACL カバーしてりゃ問題なかろ。
0569名無しさん@お腹いっぱい。2008/02/07(木) 22:22:54
ttp://d.hatena.ne.jp/softether/20060202#p2
[質問] スライドでは、NTOSKRNL はデバイスドライバコードを一切含んでいないということだったが、では ntfs.sys や scsi.sys、disk.sys などのハードディスクを読み書きするデバイスドライバはどうやって読み込まれるのか?

NTOSKRNL を呼び出す PreLoader (恐らくブートセクタプログラムおよび ntldr のこと) に NTFS などのファイルシステムドライバが特別なコードとして組み込まれている。


[質問] では、サードパーティの開発者が例えば新しいファイルシステムを開発してそれ用のデバイスドライバを書いたとしても、そのファイルシステムのドライブ上に NT カーネルを置いてブートすることは不可能ということか?

現在のところ不可能である。
0570名無しさん@お腹いっぱい。2008/02/07(木) 22:24:56
と言うような話を思い出したけど、よくよく話題を追うと機能として満たしてるかどうかだった悪寒
0571名無しさん@お腹いっぱい。2008/02/09(土) 10:24:38
X4500に16TBのZFSファイルシステム作ってみた。
コマンド叩いて、すぐに完成。
Disk 46本全て使ったので、完了するまでに待たされるかと思ったよ。
やっぱり、いいな。ZFS。
でも、細かな所で機能やユーティリティが不足しているので、以下の機能を
早く正式に取り込んで欲しいな。
・send -r ZFSプールの中の全ファイルシステムを再帰的にsend
・snapshot/send/recvのスケジューリング機能
・scrubをバックグラウンドで定期的には知らせる機能

X4500はバックアップ用ストレージとして使っている。
1000T 1本にNFS writeして、50MB/sec位。
ストレージの性能はもうちょっと上なので、10Gの時の書き込み性能を
試してみたいな。だれか10GでNFSシーケンシャルwrite性能計った事無い?
0572名無しさん@お腹いっぱい。2008/02/09(土) 17:17:30
nfsd にあたるリモートpoolを扱う機能が欲しいな。
バックアップが格段に楽になる。
経路の暗号化付きで。
0573名無しさん@お腹いっぱい。2008/02/10(日) 13:10:05
ZFSは素晴らしいよな。近年まれに見る優れたファイルシステム。
周辺のかゆい所に手を入れて、早いところSVM/UFSやVxVM/VxFS捨てて欲しいわ。
夏あたりに出てくるというSolaris10+ZFSベースのNASにも期待。
ZFSはNetApp ONTAPの機能の大半をカバーしているからな。NetApp買わなくても
良くなるかもしれない。
0574名無しさん@お腹いっぱい。2008/02/10(日) 14:39:54
>>571
zpool の RAID はどういう風に組みました?
6 本の RAID-Z を複数かな
0575名無しさん@お腹いっぱい。2008/02/10(日) 14:57:39
9D+2PのRAID-Z2を4セット、1ファイルシステム
0576名無しさん@お腹いっぱい。2008/02/11(月) 11:06:23
次のupdateで、OSブートに対応した版が出てくるんだろうか?
最近のSunサーバは、ハードウェアRAID搭載なので、SVMにお世話になる頻度は
減ったが。X4500みたいな未搭載機もあるしな。
あと、/ からZFSになっていると管理上楽
0577名無しさん@お腹いっぱい。2008/02/11(月) 13:15:05
OSブート対応はブートROM側に変更が必要なのでは。
0578名無しさん@お腹いっぱい。2008/02/11(月) 18:25:35
SPARCのこと?
OpenBootの変更が必要ない方法で進められてると思ったが。
0579名無しさん@お腹いっぱい。2008/02/11(月) 19:19:51
OpenBootもUPFATE可能な作りだしな。
0580名無しさん@お腹いっぱい。2008/02/11(月) 19:47:38
OpenBootに変更は必要ない。
Case Materials for PSARC 2006/525 new-boot sparc
ttp://www.opensolaris.org/os/community/arc/caselog/2006/525/final-materials/spec/
x86同様、多段階ブートになる。
早くにOBPから切り離されるため、場合によってはブートが速くなるらしい。

そもそもNVRAMに大きなコードが入るとは思えないわけだが。
0581名無しさん@お腹いっぱい。2008/02/11(月) 21:56:03
やっぱり多段ブートなのかぁ。sector 1-15に収まり切るのかな。
■ このスレッドは過去ログ倉庫に格納されています