[次世代] ZFS Part2 [ファイルシステム]
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@お腹いっぱい。
2007/06/13(水) 15:28:31スナップショット、ストレージプールなどの豊富な機能を備え、
次世代のファイルシステムとして期待されるZFSについて語るスレです。
○前スレ
[次世代] ZFS [ファイルシステム]
http://pc11.2ch.net/test/read.cgi/unix/1146631270/
○関連スレ
/**ファイルシステム総合スレ その7**/
http://pc11.2ch.net/test/read.cgi/linux/1173530292/
○関連リンク
Solaris ZFS
ttp://www.sun.com/software/solaris/zfs.jsp
OpenSolaris
ttp://www.opensolaris.org/os/
ソース
ttp://opensolaris.org/os/community/zfs/source/
0499名無しさん@お腹いっぱい。
2007/11/27(火) 21:00:20おー。おもしろそう。
The content of the cache devices is considered volitile, as
is the case with other system caches.
ってあるけど(関係ないけどタイポ発見)、たとえばi-ramみたいな
ので作ってもいいのかな。
0500名無しさん@お腹いっぱい。
2007/11/28(水) 01:40:07アリだと思うよ.volatile扱いでいいから相性も良いね.
個人的にはi-RAMはECC無いのが怖いしHypeDriveは高杉だしで,
ANS-9010に一縷の望みをかけてるのだけれど.
駄目ならFlashベースの奴だね……
あるいは電気代はアレだが余ったマシンをiSCSI targetにするとか.
0501名無しさん@お腹いっぱい。
2007/12/01(土) 11:48:14おおお、たしかにそれいいな。
てかVFS層でそのあたり拾ってくれよ。
FSは好きなの選びたい。
0502名無しさん@お腹いっぱい。
2007/12/01(土) 12:05:51キャッシュが腐ってることを検出したらストレージへ読みに行くらしいし。
0503502
2007/12/01(土) 12:19:190504名無しさん@お腹いっぱい。
2007/12/16(日) 15:53:44http://bsdhouse.org/yamasa/diary/20071119.html
0505名無しさん@お腹いっぱい。
2008/01/03(木) 18:56:080506名無しさん@お腹いっぱい。
2008/01/03(木) 19:14:25残りのディスクだけで完結しているファイルは、なんとかサルベージできるかも知れんけど。
ちなみに、スレ違いだな。
0507名無しさん@お腹いっぱい。
2008/01/03(木) 20:52:50ZFSでも一人が死ぬとのプール全体が終わってしまうのですね。
ディスクの足し算引き算が容易にできるFSを探しててzfsはどうかと思った次第。
Windows Home Serverの方がイメージに近いので、そっちで検討してみます。
0508名無しさん@お腹いっぱい。
2008/01/03(木) 21:05:06ボリュームマネージャにやらせるのは zfs でできるんじゃないっけ?
もしくは RAID5 構成で1本抜いて一本挿し直してみたいなことを想像してる?
0509名無しさん@お腹いっぱい。
2008/01/03(木) 21:18:56作りたいのは自宅ファイルサーバ。
録画機能つきTV(REGZA)のデータandその他もろもろデータ置き場。
(1)とにかくでかい1ボリュームが欲しい。容量が足りなくなったらHDD足すだけでOK。(ZFS,WHS)
(2HDD故障でファイル消失しても泣かない。でも正常なディスクのファイルが読めなくなるはやだ。(WHS)
(3)なるべく低イニシャルコストで。(ZFS)
こんなところです。
(1)(2)はFuse使ってunionfsの亜種みたいなのを作って実現してみようかとも思ってます。
0510名無しさん@お腹いっぱい。
2008/01/03(木) 21:22:44なので計画的にディスクを抜くというよりも障害時の影響範囲を最低限にしたいんです。
でも、RAID1,5,Zのようなディスクを余計に消費してまでの完全性はいらないんです。
0511名無しさん@お腹いっぱい。
2008/01/05(土) 12:59:08ZFSはディスクを足すのは簡単だけど、減らすことはできないと思ってたけど。
>>509
ファイルシステム以下の層でやるより、ディレクトリ分類とシンボ
リックリンクで済ませた方が早くない?
0512名無しさん@お腹いっぱい。
2008/01/08(火) 14:24:39> ZFSはディスクを足すのは簡単だけど、減らすことはできないと思ってたけど。
仕様的にはできるはずなのでは。「まだ実装されてない」って話だったが、
今の状況は知らんw
> ファイルシステム以下の層でやるより、ディレクトリ分類とシンボ
> リックリンクで済ませた方が早くない?
オレもそう思う。
0513名無しさん@お腹いっぱい。
2008/01/08(火) 16:41:45DEはファイルシステムの層でやってるのではない.
0514名無しさん@お腹いっぱい。
2008/01/08(火) 18:30:45Windows Home Server の Drive Extender だよね。
0515名無しさん@お腹いっぱい。
2008/01/08(火) 20:10:20早くUFSからオサラバしたいぜ
0516名無しさん@お腹いっぱい。
2008/01/08(火) 21:11:180517名無しさん@お腹いっぱい。
2008/01/09(水) 01:46:49FreeBSDなら
ttp://wiki.freebsd.org/ZFSOnRoot
とか
ttp://blog.ninth-nine.com/diary/20071103.txt
とか >>504 とか
0518名無しさん@お腹いっぱい。
2008/01/11(金) 02:23:46zfs-102A 来た
http://zfs.macosforge.org/?p=6
Bugs Fixed in this Rev:
5448925: sync ZFS with Solaris build 72
5405398: zfs needs kqueue(2) API support
5602507: Leopard9A581: Kernel trap at 0×4d351d9c, type 14=page fault, registers:
5592757: Kernel panic when writing to a zfs volume
5482932: Raidz parity rewrite issue
5641577: ZFS: panic: zap->zap_u.zap_fat.zap_phys->zap_magic == 0×2F52AB2ABULL failed
5621659: assertion failed in /Users/local/zfs-101-latest_fixes/zfs_kext/zfs/zfs_dir.c line 730: error == 0
5643944: ZFS get/set and mountpoints are misbehaving
5645880: Finder copy and “delete” broken in zfs-101 plus fixes..
0519名無しさん@お腹いっぱい。
2008/01/12(土) 00:39:11記事出た。
128bit FS「ZFS」のMac OS X Leopard用最新ビルドが公開
http://journal.mycom.co.jp/news/2008/01/11/008/index.html
0520名無しさん@お腹いっぱい。
2008/01/12(土) 02:08:590521名無しさん@お腹いっぱい。
2008/01/13(日) 00:36:48基本的な動作は問題なさげ。
USBメモリー16本でRAIDZ組んでみた。ランダムアクセスで100MB前後出る。
が、速度の結果が不安定。zfs側で用意したキャッシュの分の速度も含まれてるのかも?
0522名無しさん@お腹いっぱい。
2008/01/13(日) 00:48:28> USBメモリー16本でRAIDZ組んでみた
> が、速度の結果が不安定
どうやってつないだ? そもそもボトルネックってどこよ?
> zfs側で用意したキャッシュの分の速度も含まれて
普通にそうなるだろ?
0523521
2008/01/13(日) 12:49:43試したのは、102aを10.5.1で。
USB4ポートに4ポートハブと、16ポートハブ(中身は多段ハブだった)で確認。
ボトルネックは主にハブだね。USBメモリーはPQI U339Proで、ファームを最新に書き換え済み。
単体での20MB弱のリードを確認してる。
キャッシュについては、確かにそうだ。
ベンチの結果、ランダムリードで5MB/secから100MB/secまである。
パリティの処理とのカブリか、ベンチに使ったソフト(Xbench)の出来の加減なのか…
現状、zfsのraidzの挙動に詳しいわけではないので、もちょっと色々試してみる予定。
どっちにしても実際に動かす分にはかなり快適。
0524名無しさん@お腹いっぱい。
2008/01/13(日) 13:07:52それはデカイ問題じゃないのか
0525名無しさん@お腹いっぱい。
2008/01/13(日) 13:51:05そのUSBポートはひとつのICHに繋がっていて合計60MB/sの帯域しかない。
それを超えたらもちろんcacheの速度。
0526名無しさん@お腹いっぱい。
2008/01/13(日) 13:56:45> USB4ポートに4ポートハブと、16ポートハブ(中身は多段ハブ…
USB2 って 480Mbps じゃなかったけ?
16 ポートって 4x4 の 2 段だろ? ここのトランザクション増えると
ここに足引っ張られるのみえみえじゃん?
0527521
2008/01/13(日) 20:27:39G5 Macだから、ボトルネックがチップセットにあるのか不明。
一応、ハブもダメだし、あっちこっちダメなのは認識してる。
でかいファイルでだめなのは再現性不明。7GB位のファイルで確認してたんだが…その後起きない。
次でたらバグ報告しようかと思ってるんだが。
0528名無しさん@お腹いっぱい。
2008/01/14(月) 00:48:28G5だとEHCIは32bit/33MHz PCIの下だから帯域は4ポートとその他諸々全部ひっ
くるめてPCI1本分。実はIntelよりマシ。
0529名無しさん@お腹いっぱい。
2008/01/16(水) 02:14:29ICH内蔵のEHCIよりマシなのか
ぜんぜん理解できない
0530名無しさん@お腹いっぱい。
2008/01/16(水) 10:20:31先にUSBの仕様上上限がネックになるのに何故PCIの話持ち出してるのか。
0531名無しさん@お腹いっぱい。
2008/01/16(水) 10:39:180532名無しさん@お腹いっぱい。
2008/01/16(水) 20:08:26IntelのICH内蔵EHCIはUSBポート全部合わせて60MB/sの帯域しかない。
(EHCI2個を内蔵しているものはそれぞれが60MB/sの帯域を持つ)
PCI-USB bridgeならば少なくともこの制限はない、ということ。
逆にもっと酷いものが載っているかもしれないが。
>>530
USBメモリを16本挿して遊んでるので「USBの仕様上上限」とやらは問題にならない。
重要なのは経路の一番細い部分。すべてのUSBはひとつのEHCIを経由するわけだから、
ここの帯域が速度の上限となる。だからEHCIがどこに繋がっているかの話をした。
理解していただけたか。
0533名無しさん@お腹いっぱい。
2008/01/16(水) 21:49:550534名無しさん@お腹いっぱい。
2008/01/16(水) 23:35:12>PCI-USB bridgeならば少なくともこの制限はない、ということ。
そんなの始めて聞いたゼ。
前段の、1EHCI辺り60MB/sしか出ないのかがホントなのか、はおいといて、
もしそうだとしても、後段の「PCI-USB brigde」ってのは結局のところEHCIなわけだから、
1つしかなければ、そこも結局60MB/s以上出るはずがないという話になると思うけど?
0535名無しさん@お腹いっぱい。
2008/01/17(木) 01:20:54してるわけか。
0536名無しさん@お腹いっぱい。
2008/01/17(木) 01:49:42Intel製のICH内蔵EHCIが60MB/sでFSBに繋がっているということが
他社製のEHCIの構造に何か影響を及ぼしていると言っているのか?
もしそうなら言ってくれ。君のことは早々に忘れることにする。
そうでなくても大概スレ違いなので次のレスで完結してくれるようお願いする。
>>535
君はもう少し誰かの役に立つことを書け。
0537名無しさん@お腹いっぱい。
2008/01/17(木) 08:18:30ICH内部バス(ふつうFSBとは言わない)からRootHubまで
60MB/s(480Mbps)しかないけど、
他のメーカ(NEC,VIA,SIS,AMDなど)のEHCIはそこは133MB/sの太さがある、と?
0538名無しさん@お腹いっぱい。
2008/01/17(木) 09:17:040539名無しさん@お腹いっぱい。
2008/01/17(木) 10:01:430540名無しさん@お腹いっぱい。
2008/01/17(木) 10:27:270541名無しさん@お腹いっぱい。
2008/01/17(木) 15:44:38元々の実験自体は中々面白いものだったし。
0542名無しさん@お腹いっぱい。
2008/01/18(金) 11:40:59http://jp.techcrunch.com/archives/joyent-suffers-major-downtime-due-to-zfs-bug/
0543名無しさん@お腹いっぱい。
2008/01/18(金) 12:45:11それって、(リリース版Solarisでなく)OpenSolaris、それもsnv_43なんていう古いバージョンのを
使っててバグ踏んだだけじゃん。snv_60で9ヶ月ぐらい前にfixされてるバグだし。
http://discuss.joyent.com/viewtopic.php?id=19430
http://opensolaris.org/jive/thread.jspa?threadID=49020
0544名無しさん@お腹いっぱい。
2008/01/18(金) 14:33:35あ、TechCrunchのfounderは記事に名前の出てるOmnidriveのinvestorでもあるのか。
0545名無しさん@お腹いっぱい。
2008/01/18(金) 16:21:01それ以上のものはほぼ皆無ってことになるんじゃねーか? すげーじゃん。
0546名無しさん@お腹いっぱい。
2008/01/20(日) 04:37:450547521
2008/01/21(月) 01:43:436本のUSBメモリーでraidz2にして、1~2本抜いてその分新しいのをプールに追加すればほら元通りってデモやろうとしてたけど、
なんどやってもその場でパニックまたはzpool statusを実行した途端パニック。レポート送信ポチッとな。
あと、16ポートハブは出来が悪い。たくさんデータ転送してたら突然の電源断。熱が多いようだし、そのせいかもしれないが。
Mac/Winの複数環境で試したが、相性ではなさそう。一部ポートだけ接続不良とかもランダムで起きてる気がする。
さらに、機能とは関係ないが、コネクタがいい加減についてるから、差したブツがランダムで斜めになってるし。
16ポートにUSBメモリー直接差したら、ガタツキまくりのぶつかりまくりの離れまくり。熱問題も含めて延長ケーブル経由にしてしまった。
…高い遊びの割に、結果がしょんぼり。USBメモリーは当初の予定通りデータ入稿用ストックに。
ハブは、Mac Book Airを買ったら使う、かなぁ?
0548名無しさん@お腹いっぱい。
2008/01/21(月) 02:30:080549名無しさん@お腹いっぱい。
2008/01/21(月) 07:57:17乙でした。
職業ライターさんかな?
だとしたら、スレ違いだけどVT -d、IOV特集とかお願い。
0550名無しさん@お腹いっぱい。
2008/02/03(日) 14:00:286本同時接続自体が無謀な気もするんだが・・・
0551名無しさん@お腹いっぱい。
2008/02/05(火) 21:03:20ハブをバスパワーにしなければ無問題ではないかと
0552名無しさん@お腹いっぱい。
2008/02/05(火) 21:13:340553名無しさん@お腹いっぱい。
2008/02/06(水) 09:52:49他人に頼るな。自分でなんとかしてみろ
0554名無しさん@お腹いっぱい。
2008/02/06(水) 10:00:37まあ、6月ぐらいになったら暇になるから勉強のつもりで挑戦してみるか
0555名無しさん@お腹いっぱい。
2008/02/06(水) 10:50:44ZFS オンリーな環境で MS-Windows がまともに動いたらちょっと爽快かもな。
0556名無しさん@お腹いっぱい。
2008/02/06(水) 12:58:56いや機能だけでいうなら全然足りない。
0557名無しさん@お腹いっぱい。
2008/02/06(水) 13:34:230558名無しさん@お腹いっぱい。
2008/02/06(水) 19:26:050559名無しさん@お腹いっぱい。
2008/02/06(水) 20:21:520560名無しさん@お腹いっぱい。
2008/02/06(水) 21:09:430561名無しさん@お腹いっぱい。
2008/02/06(水) 21:12:54re-parse file は symbolic link、sparse file は hole。
multiple stream は extended attributes (fsattr)だろうな。
以上なら UFS にもあるぞ。
extended attributes は Solaris 9 以降だったと思うが。
暗号化が実装途上だというのはすでに言及されてるからいいとして、
トランザクションとか他の事項については中身を知らんから何とも。
556や558は知ってるならちゃんと説明してくれ。
0562名無しさん@お腹いっぱい。
2008/02/06(水) 21:46:10問題ないんでないの?
NTFSと同等の機能が必要かどうかは、OS上で何を動作させるか次第だと思うんだけど。
0563名無しさん@お腹いっぱい。
2008/02/06(水) 21:48:43その機構を利用してジャンクションやシンボリックを実現しているだけで、
本質はもっと汎用的な動的再解析のための枠組み。
Windowsでは階層化ストレージのために使っていたりするが、
独自の再解析のアルゴリズムを追加してリパースさせることもできる。はず。
寡聞にして聞いたことがないが。
0564名無しさん@お腹いっぱい。
2008/02/06(水) 22:02:30ZFS に sparse file(hole) ってあったっけ?
あと junction 相当の directory hardlink とかどうだっけ。
まあ機能制限ありなら FAT 上でだって XP は動くわけで、
そういうのでいいなら ZFS 上で Win 動かすのに問題はないんじゃない?
あと Win Server の Volume Shadow Copy って、これ snapshot 相当なの?
誰か使ったことある?
0565名無しさん@お腹いっぱい。
2008/02/06(水) 22:04:16無いというだけで十分ではないか。
0566名無しさん@お腹いっぱい。
2008/02/06(水) 22:06:060567名無しさん@お腹いっぱい。
2008/02/07(木) 03:21:190568名無しさん@お腹いっぱい。
2008/02/07(木) 10:20:14ACL カバーしてりゃ問題なかろ。
0569名無しさん@お腹いっぱい。
2008/02/07(木) 22:22:54[質問] スライドでは、NTOSKRNL はデバイスドライバコードを一切含んでいないということだったが、では ntfs.sys や scsi.sys、disk.sys などのハードディスクを読み書きするデバイスドライバはどうやって読み込まれるのか?
NTOSKRNL を呼び出す PreLoader (恐らくブートセクタプログラムおよび ntldr のこと) に NTFS などのファイルシステムドライバが特別なコードとして組み込まれている。
[質問] では、サードパーティの開発者が例えば新しいファイルシステムを開発してそれ用のデバイスドライバを書いたとしても、そのファイルシステムのドライブ上に NT カーネルを置いてブートすることは不可能ということか?
現在のところ不可能である。
0570名無しさん@お腹いっぱい。
2008/02/07(木) 22:24:560571名無しさん@お腹いっぱい。
2008/02/09(土) 10:24:38コマンド叩いて、すぐに完成。
Disk 46本全て使ったので、完了するまでに待たされるかと思ったよ。
やっぱり、いいな。ZFS。
でも、細かな所で機能やユーティリティが不足しているので、以下の機能を
早く正式に取り込んで欲しいな。
・send -r ZFSプールの中の全ファイルシステムを再帰的にsend
・snapshot/send/recvのスケジューリング機能
・scrubをバックグラウンドで定期的には知らせる機能
X4500はバックアップ用ストレージとして使っている。
1000T 1本にNFS writeして、50MB/sec位。
ストレージの性能はもうちょっと上なので、10Gの時の書き込み性能を
試してみたいな。だれか10GでNFSシーケンシャルwrite性能計った事無い?
0572名無しさん@お腹いっぱい。
2008/02/09(土) 17:17:30バックアップが格段に楽になる。
経路の暗号化付きで。
0573名無しさん@お腹いっぱい。
2008/02/10(日) 13:10:05周辺のかゆい所に手を入れて、早いところSVM/UFSやVxVM/VxFS捨てて欲しいわ。
夏あたりに出てくるというSolaris10+ZFSベースのNASにも期待。
ZFSはNetApp ONTAPの機能の大半をカバーしているからな。NetApp買わなくても
良くなるかもしれない。
0574名無しさん@お腹いっぱい。
2008/02/10(日) 14:39:54zpool の RAID はどういう風に組みました?
6 本の RAID-Z を複数かな
0575名無しさん@お腹いっぱい。
2008/02/10(日) 14:57:390576名無しさん@お腹いっぱい。
2008/02/11(月) 11:06:23最近のSunサーバは、ハードウェアRAID搭載なので、SVMにお世話になる頻度は
減ったが。X4500みたいな未搭載機もあるしな。
あと、/ からZFSになっていると管理上楽
0577名無しさん@お腹いっぱい。
2008/02/11(月) 13:15:050578名無しさん@お腹いっぱい。
2008/02/11(月) 18:25:35OpenBootの変更が必要ない方法で進められてると思ったが。
0579名無しさん@お腹いっぱい。
2008/02/11(月) 19:19:510580名無しさん@お腹いっぱい。
2008/02/11(月) 19:47:38Case Materials for PSARC 2006/525 new-boot sparc
ttp://www.opensolaris.org/os/community/arc/caselog/2006/525/final-materials/spec/
x86同様、多段階ブートになる。
早くにOBPから切り離されるため、場合によってはブートが速くなるらしい。
そもそもNVRAMに大きなコードが入るとは思えないわけだが。
0581名無しさん@お腹いっぱい。
2008/02/11(月) 21:56:030582名無しさん@お腹いっぱい。
2008/02/11(月) 22:13:52既に Project Indianaの成果物は
http://www.opensolaris.org/jive/thread.jspa?messageID=169793&tstart=0#169793
ZFSオンリーの構成でインストールされますよ。
0583名無しさん@お腹いっぱい。
2008/02/11(月) 22:15:230584名無しさん@お腹いっぱい。
2008/02/12(火) 01:17:460585名無しさん@お腹いっぱい。
2008/02/12(火) 13:51:260586名無しさん@お腹いっぱい。
2008/02/12(火) 20:04:54ZFSサポートしているHAはSunClusterのみだからなぁ。
FirstWatchからずっとVERITASを支持してきた俺だが、
SunClusterを検討する時期に来ているんだろうか。
0587名無しさん@お腹いっぱい。
2008/02/12(火) 20:53:330588名無しさん@お腹いっぱい。
2008/02/16(土) 17:57:28階層的に作成したファイルシステムを一撃でバックアップ取れて、復元も可能。
http://docs.sun.com/app/docs/doc/817-2271/gfwqb?a=view
# zfs snapshot -r users@today
# zfs list
NAME USED AVAIL REFER MOUNTPOINT
users 187K 33.2G 22K /users
users@today 0 - 22K -
users/user1 18K 33.2G 18K /users/user1
users/user1@today 0 - 18K -
users/user2 18K 33.2G 18K /users/user2
users/user2@today 0 - 18K -
users/user3 18K 33.2G 18K /users/user3
users/user3@today 0 - 18K -
# zfs send -R users@today > /snaps/users-R
# zfs destroy -r users
# zfs receive -F -d users < /snaps/users-R
# zfs list
NAME USED AVAIL REFER MOUNTPOINT
users 196K 33.2G 22K /users
users@today 0 - 22K -
users/user1 18K 33.2G 18K /users/user1
users/user1@today 0 - 18K -
users/user2 18K 33.2G 18K /users/user2
users/user2@today 0 - 18K -
users/user3 18K 33.2G 18K /users/user3
users/user3@today 0 - 18K -
0589名無しさん@お腹いっぱい。
2008/02/16(土) 17:58:20すごく楽になったぜ。
0590名無しさん@お腹いっぱい。
2008/02/16(土) 18:04:42# zpool create pool mirror c0t2d0 c0t4d0 cache c0t0d0
# zpool status pool
pool: pool
state: ONLINE
scrub: none requested
config:
NAME STATE READ WRITE CKSUM
pool ONLINE 0 0 0
mirror ONLINE 0 0 0
c0t2d0 ONLINE 0 0 0
c0t4d0 ONLINE 0 0 0
cache
c0t0d0 ONLINE 0 0 0
errors: No known data errors
0591名無しさん@お腹いっぱい。
2008/02/21(木) 00:10:38RAID 6+2+0相当で、そこまで出来るなら鯖管に真面目に検討させたいなぁ。
0592名無しさん@お腹いっぱい。
2008/02/21(木) 23:00:54ってどう言う意味?
あと、RAID6+2+0ってどんなメリットが? しかもRAID2 ??
と言うか、そんなの構成可能なHW RAIDやSW RAIDがあるわけ?
0593名無しさん@お腹いっぱい。
2008/02/23(土) 11:40:15ナ ナンダッテー!!
Ω ΩΩ
っていうw
0594名無しさん@お腹いっぱい。
2008/02/23(土) 13:18:260595名無しさん@お腹いっぱい。
2008/02/23(土) 13:59:04Infrant の ReadyNAS みたいなイメージなのかな?
0596名無しさん@お腹いっぱい。
2008/02/23(土) 20:34:15お薦めできない。RAID-Z 4+1分の容量を追加とか。そんな感じでやるべき。
0597名無しさん@お腹いっぱい。
2008/03/27(木) 09:27:16組み合わせで導入してみたけど、いまいち使い物にならない。
http://wiki.freebsd.org/ZFSTuningGuide にあるとおり、
vm.kmem_size="512M"
vm.kmem_size_max="512M"
としたけど、クライアントのVista SP1マシンから数GBのデータをコピー
しようとしたらkmem_map too smallで落ちる。設定を640MBまで増やして
みてもダメ。どこまで増やせば安定するのかな。
というかそもそもメインメモリ1GBじゃファイルサーバにZFS使うのには
ぜんぜん足りないのか。
0598名無しさん@お腹いっぱい。
2008/03/27(木) 09:51:12sysctl -a | grep vfs.zfs.prefetch_disable
デフォルト値0を1に変えてみたらどうだろう。
他にも設定できる箇所は沢山あるけど、個人的には簡単に動く印象は無いな。
■ このスレッドは過去ログ倉庫に格納されています