トップページunix
983コメント275KB

[次世代] ZFS Part2 [ファイルシステム]

■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@お腹いっぱい。2007/06/13(水) 15:28:31
64ビットのチェックサム、128bitアドレッシング、RAID、ホットスペア、
スナップショット、ストレージプールなどの豊富な機能を備え、
次世代のファイルシステムとして期待されるZFSについて語るスレです。

○前スレ
[次世代] ZFS [ファイルシステム]
http://pc11.2ch.net/test/read.cgi/unix/1146631270/

○関連スレ
/**ファイルシステム総合スレ その7**/
http://pc11.2ch.net/test/read.cgi/linux/1173530292/

○関連リンク
Solaris ZFS
ttp://www.sun.com/software/solaris/zfs.jsp

OpenSolaris
ttp://www.opensolaris.org/os/

ソース
ttp://opensolaris.org/os/community/zfs/source/
0455名無しさん@お腹いっぱい。2007/10/13(土) 16:56:48
逆に、こうした障害が起きないのであれば、筐体間ミラーをする必要も
ないわけだが。
0456名無しさん@お腹いっぱい。2007/10/13(土) 17:23:13
>>454
最初そう思ったんだけど、RAID が丸ごと壊れたら ZFS でも全コピーでしょ。
0457名無しさん@お腹いっぱい。2007/10/13(土) 17:43:50
あぁ、その時使用していたブロックだけコピーされるのね。
0458名無しさん@お腹いっぱい。2007/10/13(土) 18:57:16
>>408
常識的に考えてVCSがサポートするわけなかろうに
0459名無しさん@お腹いっぱい。2007/10/14(日) 18:10:34
>>411
便利そう。
俺今までsetuid したプログラム使ってて気持ち悪かった。(mount
point のオーナとuid が同じかチェックして、zfs snapshot する)
0460名無しさん@お腹いっぱい。2007/10/14(日) 21:48:54
>>458 対応すると入っているんだが、何時になる事やら
SunClusterに浮気しちゃうぞw
0461名無しさん@お腹いっぱい。2007/10/15(月) 14:31:49
ZFS + Lustre ?

http://www.hpcwire.com/hpc/1830360.html
0462名無しさん@お腹いっぱい。2007/10/15(月) 14:38:42
まだお伽話のレベルですね
0463名無しさん@お腹いっぱい。2007/10/16(火) 04:44:05
Linux初心者にオススメの無料OS、Ubuntu(ウブントゥ)。
ISOイメージをCDに焼くだけで起動ディスクの完成。
ディスクを入れたまま再起動すれば即(・∀・)ウブントゥ!!
既存の環境を汚さないLiveCDタイプで、安心して試せます。
気に入ったらHDDにインストールして常用も可能。

ダウンロード
http://www.ubuntulinux.jp/products/GetUbuntu

世界で圧倒的人気のLinux、それがUbuntu。
http://google.com/trends?q=Ubuntu%2CMandriva%2CSUSE%2CFedora%2CKnoppix

初心者超歓迎BBS
http://pc11.2ch.net/test/read.cgi/linux/1177677371/

★Ubuntu日本語サイト
http://www.ubuntulinux.jp/
★Ubuntu 7.04紹介記事
http://itpro.nikkeibp.co.jp/article/NEWS/20070420/269132/
http://itpro.nikkeibp.co.jp/article/NEWS/20070608/274191/
★Ubuntu 7.04インストールガイド
http://itpro.nikkeibp.co.jp/article/COLUMN/20070507/270108/

3Dデスクトップ環境「Beryl」
Minimizing Effects http://www.youtube.com/watch?v=fgV3KTKsRRk
Desktop Cube http://www.youtube.com/watch?v=xCO14ISplEg
Rain Effects http://www.youtube.com/watch?v=bLQgnXDgXyE
Window Switching http://www.youtube.com/watch?v=7JNEwa4-Q9s
Beryl + Wiiリモコン http://www.youtube.com/watch?v=xzlAR1rPKPg
0464名無しさん@お腹いっぱい。2007/10/16(火) 13:02:18
アダルト広告みたい。
気持ち悪いユーザのいるディストロだな…
0465名無しさん@お腹いっぱい。2007/10/16(火) 13:49:33
まさにネガティブキャンペーンだよな。
0466名無しさん@お腹いっぱい。2007/10/17(水) 23:03:07
使うことが目的じゃなくって試す事が目的なのか?
0467名無しさん@お腹いっぱい。2007/10/19(金) 18:38:37
>>ISOイメージをCDに焼くだけで起動ディスクの完成。
だからどうだっていうの? solarisのinstall cdは、20年前から
CDからOSがブートしてた。
0468名無しさん@お腹いっぱい。2007/10/19(金) 18:40:42
>>467
劣化コピペ相手にマジレスすんなよ、恥ずかしい奴だな
0469名無しさん@お腹いっぱい。2007/10/19(金) 18:50:36
宣伝コピペにマジレスとは恐れ入る
0470名無しさん@お腹いっぱい。2007/10/19(金) 19:13:38
ゆとり
0471名無しさん@お腹いっぱい。2007/10/26(金) 15:34:53
Leopard製品版では結局createは実装されていませんでした。報告まで。
0472名無しさん@お腹いっぱい。2007/10/26(金) 17:01:43
つーことは既存fsのマウントだけか。
まあ無難なところだろうな。
0473名無しさん@お腹いっぱい。2007/10/26(金) 18:27:59
サン、12件の特許侵害でNetAppを逆提訴
http://japan.cnet.com/news/biz/story/0,2000056020,20359684,00.htm?ref=rss

ブヒブヒ、zfsに噛みつきました。
0474名無しさん@お腹いっぱい。2007/10/27(土) 19:00:34
Sun、NetAppの特許訴訟に反訴
http://www.itmedia.co.jp/news/articles/0710/26/news070.html

 米Sun Microsystemsが、米Network Appliance(NetApp)に起こされた特許訴訟に反訴した。
同社の法務部門責任者マイク・ディロン氏が10月25日、自身のブログで明らかにした。
 NetAppは9月に、Sunのファイルシステム「ZFS」に7件の特許を侵害されたとして訴訟を起こした。
Sunはこれに反訴し、ZFSはNetAppの特許を侵害していないと主張。さらにNetAppがSunの特許12件を
侵害していると申し立てている。
 Sunが侵害されたとしている特許には、同社がストレージ企業StorageTek買収で取得したものが
含まれる。同社はNetAppに対する差し止め命令と損害賠償を求めている。
 ディロン氏はブログで、NetAppから訴訟を起こす意向を一切知らされなかったことを指摘、
NetAppがZFSの採用を妨げようとしているのはビジネス上の理由からだとしている。
同氏は、SunがZFSを3年前に発表し、2005年11月にオープンソース化したことに触れ、
なぜNetAppは今になって訴訟を起こしたのだろうかと疑問を呈している。
0475名無しさん@お腹いっぱい。2007/10/29(月) 01:51:10
そんだけ NetApp にとって ZFS が脅威だってことだな。
0476名無しさん@お腹いっぱい。2007/10/30(火) 12:46:36
ガンダム00とか見たほうがいいよ
アメリカの汚いやり口を分かりやすく説明しているから
0477名無しさん@お腹いっぱい。2007/10/30(火) 13:50:48
>>476
アニメじゃないと、理解できないんだろ?
0478名無しさん@お腹いっぱい。2007/10/30(火) 15:10:42
ガイドラインまで立ってるw
0479名無しさん@お腹いっぱい。2007/11/04(日) 02:45:49
ttp://blog.ninth-nine.com/diary/20071103.txt
0480名無しさん@お腹いっぱい。2007/11/04(日) 03:55:04
ZFS Beta Seed v1.1
https://connect.apple.com/cgi-bin/WebObjects/MemberSite.woa/wa/getSoftware?bundleID=19884
0481名無しさん@お腹いっぱい。2007/11/04(日) 06:52:52
>>480
キタコレ。
readme読むと、いくつかの機能がまだ完成してないらしい。
GUIDパーティションで既存のFSとも共存させれるらしい。

今、余ってるディスクもMacもないから、テストできないなー。
04824802007/11/04(日) 16:02:51
>>481
試しにUSBメモリをZFSにして、それを抜き差ししたらカーネルパニックしたw
アンインストールの仕方がよく分からんので注意w
0483名無しさん@お腹いっぱい。2007/11/04(日) 16:33:10
しかも、一度ZFSにして、カーネルパニックするとリカバリー中と出てフォーマットも含めすべての操作ができなくなる。
つか、そもそもZFS 1.1はLeopard beta 用
0484名無しさん@お腹いっぱい。2007/11/07(水) 15:57:22
Mac+ZFS
http://blogs.sun.com/jimlaurent/entry/testing_macos_x_read_only
0485名無しさん@お腹いっぱい。2007/11/08(木) 00:33:07
>>479
ありがとう
週末にZFS on FreeBSDやる予定なのでたすかります

0486名無しさん@お腹いっぱい。2007/11/08(木) 00:40:14
ついでに質問なんですが
diskのSATA write casheはonのままでもよいでしょうか?
softupdateみたいにoffだと性能がでなくて、しかたなくonがデフォルトとかの情報希望
0487名無しさん@お腹いっぱい。2007/11/15(木) 01:05:53
やっと時間が取れてFreeBSD amd64で
zpool create tank /dev/ad6s2
したらSEGVになるんだが
gdbでぱっとみstrlen()でおちている。
何このクォリティ。
ホームを置こうと思ってたが、ちょとこわいね。
0488名無しさん@お腹いっぱい。2007/11/16(金) 01:17:47
zpoolをつくりなおしてgdbでみたら
geom系の関数が工ラーになっていて、
それをassertでおとしていたというオチ。
NTFSのボリュームラベルが日本語だったので
gIabelが発狂したらしい。

0489名無しさん@お腹いっぱい。2007/11/16(金) 08:15:01
まずは、ホームデイレクトリを移そうと
compression=9でコピーをはじめたら
カーネルスレッドが8本ほどアクティブになってシステムの反応が悪化。
giantlockをとられている感覚に近い。
そのうちkmemなんとかでパニックした。(loader.confで1Gまで上げてるのに)
compressionをはずしてやりなおしたら、うまくコピーがおわった。
0490名無しさん@お腹いっぱい。2007/11/16(金) 09:24:51
>>486
zfsはライトキャッシュを活用するように作られてるよ。

>>487-489
内容のないグチ日記を書きたいだけならチラシの裏にしとけ。
0491名無しさん@お腹いっぱい。2007/11/16(金) 10:32:00
批判的な記事はご遠慮ください。
(他と比較して結果の劣る)ベンチマークの公開はご遠慮ください。
0492名無しさん@お腹いっぱい。2007/11/16(金) 11:45:41
書くなら詳しく書けって言ってんだ。
自分の環境で起こる問題はどこでも再現すると思ってるバカは扱いに困るな。
0493名無しさん@お腹いっぱい。2007/11/16(金) 13:07:08
せっかくブログってもんがあるのにね
0494名無しさん@お腹いっぱい。2007/11/17(土) 03:22:28
いいよ。遠慮せずどんどん書いてくれ。
0495名無しさん@お腹いっぱい。2007/11/17(土) 03:42:34
>>488 は参考になったけど
0496名無しさん@お腹いっぱい。2007/11/21(水) 08:31:32
WCはうまくつかっているということであんしんあんぜんってことですね。
今のところ安定して動いています。
zfs snapshotが一般ユーザで実行できるのと、.zfs/snapshot/~がマウントされっぱなしになるのが気になるところ。
0497名無しさん@お腹いっぱい。2007/11/23(金) 21:55:49
ZFS最高!!
0498名無しさん@お腹いっぱい。2007/11/27(火) 15:10:35
これがすごく楽しみ…… 妄想してたものが現実に
http://www.opensolaris.org/os/community/zfs/version/10/
http://jp.opensolaris.org/os/community/arc/caselog/2007/618/onepager/
0499名無しさん@お腹いっぱい。2007/11/27(火) 21:00:20
>>498
おー。おもしろそう。
The content of the cache devices is considered volitile, as
is the case with other system caches.
ってあるけど(関係ないけどタイポ発見)、たとえばi-ramみたいな
ので作ってもいいのかな。
0500名無しさん@お腹いっぱい。2007/11/28(水) 01:40:07
>>499
アリだと思うよ.volatile扱いでいいから相性も良いね.
個人的にはi-RAMはECC無いのが怖いしHypeDriveは高杉だしで,
ANS-9010に一縷の望みをかけてるのだけれど.
駄目ならFlashベースの奴だね……
あるいは電気代はアレだが余ったマシンをiSCSI targetにするとか.
0501名無しさん@お腹いっぱい。2007/12/01(土) 11:48:14
>>438
おおお、たしかにそれいいな。
てかVFS層でそのあたり拾ってくれよ。
FSは好きなの選びたい。
0502名無しさん@お腹いっぱい。2007/12/01(土) 12:05:51
そんなところに挟んだらキャッシュから読んだデータの整合性チェックができないんじゃないか?
キャッシュが腐ってることを検出したらストレージへ読みに行くらしいし。
05035022007/12/01(土) 12:19:19
すまん、501を498宛だと勘違いしてたよ。。。
0504名無しさん@お腹いっぱい。2007/12/16(日) 15:53:44
ZFS on rootなFreeBSD環境をmicroSD上に構築してみる
http://bsdhouse.org/yamasa/diary/20071119.html
0505名無しさん@お腹いっぱい。2008/01/03(木) 18:56:08
複数ディスクをJBODで構築した場合、ディスクに一つ障害が出たらファイル全部喪失してしまうんでしょうか。

0506名無しさん@お腹いっぱい。2008/01/03(木) 19:14:25
基本的にそういう理解でいい。
残りのディスクだけで完結しているファイルは、なんとかサルベージできるかも知れんけど。

ちなみに、スレ違いだな。
0507名無しさん@お腹いっぱい。2008/01/03(木) 20:52:50
>>506
ZFSでも一人が死ぬとのプール全体が終わってしまうのですね。
ディスクの足し算引き算が容易にできるFSを探しててzfsはどうかと思った次第。

Windows Home Serverの方がイメージに近いので、そっちで検討してみます。
0508名無しさん@お腹いっぱい。2008/01/03(木) 21:05:06
事前に抜く予定が分かっていてファイルの移動を
ボリュームマネージャにやらせるのは zfs でできるんじゃないっけ?

もしくは RAID5 構成で1本抜いて一本挿し直してみたいなことを想像してる?
0509名無しさん@お腹いっぱい。2008/01/03(木) 21:18:56
>>508

作りたいのは自宅ファイルサーバ。
録画機能つきTV(REGZA)のデータandその他もろもろデータ置き場。

(1)とにかくでかい1ボリュームが欲しい。容量が足りなくなったらHDD足すだけでOK。(ZFS,WHS)
(2HDD故障でファイル消失しても泣かない。でも正常なディスクのファイルが読めなくなるはやだ。(WHS)
(3)なるべく低イニシャルコストで。(ZFS)

こんなところです。
(1)(2)はFuse使ってunionfsの亜種みたいなのを作って実現してみようかとも思ってます。
0510名無しさん@お腹いっぱい。2008/01/03(木) 21:22:44
>>508
なので計画的にディスクを抜くというよりも障害時の影響範囲を最低限にしたいんです。
でも、RAID1,5,Zのようなディスクを余計に消費してまでの完全性はいらないんです。
0511名無しさん@お腹いっぱい。2008/01/05(土) 12:59:08
>>508
ZFSはディスクを足すのは簡単だけど、減らすことはできないと思ってたけど。

>>509
ファイルシステム以下の層でやるより、ディレクトリ分類とシンボ
リックリンクで済ませた方が早くない?
0512名無しさん@お腹いっぱい。2008/01/08(火) 14:24:39
>>511
> ZFSはディスクを足すのは簡単だけど、減らすことはできないと思ってたけど。
仕様的にはできるはずなのでは。「まだ実装されてない」って話だったが、
今の状況は知らんw

> ファイルシステム以下の層でやるより、ディレクトリ分類とシンボ
> リックリンクで済ませた方が早くない?
オレもそう思う。
0513名無しさん@お腹いっぱい。2008/01/08(火) 16:41:45
それをファイル単位で自動的にやってくれるのがWHSのDEな.
DEはファイルシステムの層でやってるのではない.
0514名無しさん@お腹いっぱい。2008/01/08(火) 18:30:45
UNIX 板なんだから謎の略語は展開してあげるのが親切かと。
Windows Home Server の Drive Extender だよね。
0515名無しさん@お腹いっぱい。2008/01/08(火) 20:10:20
ZFSが/で使えないのは何がたりない?
早くUFSからオサラバしたいぜ
0516名無しさん@お腹いっぱい。2008/01/08(火) 21:11:18
OpenSolarisやFreeBSDならできるよ
0517名無しさん@お腹いっぱい。2008/01/09(水) 01:46:49
>>515
FreeBSDなら
ttp://wiki.freebsd.org/ZFSOnRoot
とか
ttp://blog.ninth-nine.com/diary/20071103.txt
とか >>504 とか
0518名無しさん@お腹いっぱい。2008/01/11(金) 02:23:46
>>480-484
zfs-102A 来た
http://zfs.macosforge.org/?p=6

Bugs Fixed in this Rev:
5448925: sync ZFS with Solaris build 72
5405398: zfs needs kqueue(2) API support
5602507: Leopard9A581: Kernel trap at 0×4d351d9c, type 14=page fault, registers:
5592757: Kernel panic when writing to a zfs volume
5482932: Raidz parity rewrite issue
5641577: ZFS: panic: zap->zap_u.zap_fat.zap_phys->zap_magic == 0×2F52AB2ABULL failed
5621659: assertion failed in /Users/local/zfs-101-latest_fixes/zfs_kext/zfs/zfs_dir.c line 730: error == 0
5643944: ZFS get/set and mountpoints are misbehaving
5645880: Finder copy and “delete” broken in zfs-101 plus fixes..
0519名無しさん@お腹いっぱい。2008/01/12(土) 00:39:11
>>518
記事出た。

128bit FS「ZFS」のMac OS X Leopard用最新ビルドが公開
http://journal.mycom.co.jp/news/2008/01/11/008/index.html
0520名無しさん@お腹いっぱい。2008/01/12(土) 02:08:59
にしても、基本的にOS X 10.6まで待ちというのは長いな…
0521名無しさん@お腹いっぱい。2008/01/13(日) 00:36:48
デカイファイルの削除時にカーネルパニックになる場合があるね。
基本的な動作は問題なさげ。
USBメモリー16本でRAIDZ組んでみた。ランダムアクセスで100MB前後出る。
が、速度の結果が不安定。zfs側で用意したキャッシュの分の速度も含まれてるのかも?
0522名無しさん@お腹いっぱい。2008/01/13(日) 00:48:28
>>521
> USBメモリー16本でRAIDZ組んでみた
> が、速度の結果が不安定
どうやってつないだ? そもそもボトルネックってどこよ?

> zfs側で用意したキャッシュの分の速度も含まれて
普通にそうなるだろ?
05235212008/01/13(日) 12:49:43
>>522
試したのは、102aを10.5.1で。
USB4ポートに4ポートハブと、16ポートハブ(中身は多段ハブだった)で確認。
ボトルネックは主にハブだね。USBメモリーはPQI U339Proで、ファームを最新に書き換え済み。
単体での20MB弱のリードを確認してる。

キャッシュについては、確かにそうだ。
ベンチの結果、ランダムリードで5MB/secから100MB/secまである。
パリティの処理とのカブリか、ベンチに使ったソフト(Xbench)の出来の加減なのか…
現状、zfsのraidzの挙動に詳しいわけではないので、もちょっと色々試してみる予定。
どっちにしても実際に動かす分にはかなり快適。
0524名無しさん@お腹いっぱい。2008/01/13(日) 13:07:52
>>521
それはデカイ問題じゃないのか
0525名無しさん@お腹いっぱい。2008/01/13(日) 13:51:05
10.5.1てマコス?
そのUSBポートはひとつのICHに繋がっていて合計60MB/sの帯域しかない。
それを超えたらもちろんcacheの速度。
0526名無しさん@お腹いっぱい。2008/01/13(日) 13:56:45
>>523
> USB4ポートに4ポートハブと、16ポートハブ(中身は多段ハブ…
USB2 って 480Mbps じゃなかったけ?
16 ポートって 4x4 の 2 段だろ? ここのトランザクション増えると
ここに足引っ張られるのみえみえじゃん?
05275212008/01/13(日) 20:27:39
お遊びにそんな怒らんでも。Leopardだね。>>519 のもの。
G5 Macだから、ボトルネックがチップセットにあるのか不明。
一応、ハブもダメだし、あっちこっちダメなのは認識してる。
でかいファイルでだめなのは再現性不明。7GB位のファイルで確認してたんだが…その後起きない。
次でたらバグ報告しようかと思ってるんだが。
0528名無しさん@お腹いっぱい。2008/01/14(月) 00:48:28
>>527
G5だとEHCIは32bit/33MHz PCIの下だから帯域は4ポートとその他諸々全部ひっ
くるめてPCI1本分。実はIntelよりマシ。
0529名無しさん@お腹いっぱい。2008/01/16(水) 02:14:29
なんでPCIの下のEHCIが、
ICH内蔵のEHCIよりマシなのか
ぜんぜん理解できない
0530名無しさん@お腹いっぱい。2008/01/16(水) 10:20:31
俺も理解できない。
先にUSBの仕様上上限がネックになるのに何故PCIの話持ち出してるのか。
0531名無しさん@お腹いっぱい。2008/01/16(水) 10:39:18
USB3.0 の話なのだよ
0532名無しさん@お腹いっぱい。2008/01/16(水) 20:08:26
>>529
IntelのICH内蔵EHCIはUSBポート全部合わせて60MB/sの帯域しかない。
(EHCI2個を内蔵しているものはそれぞれが60MB/sの帯域を持つ)
PCI-USB bridgeならば少なくともこの制限はない、ということ。
逆にもっと酷いものが載っているかもしれないが。

>>530
USBメモリを16本挿して遊んでるので「USBの仕様上上限」とやらは問題にならない。
重要なのは経路の一番細い部分。すべてのUSBはひとつのEHCIを経由するわけだから、
ここの帯域が速度の上限となる。だからEHCIがどこに繋がっているかの話をした。

理解していただけたか。
0533名無しさん@お腹いっぱい。2008/01/16(水) 21:49:55
なるほど。勉強になった。
0534名無しさん@お腹いっぱい。2008/01/16(水) 23:35:12
>IntelのICH内蔵EHCIはUSBポート全部合わせて60MB/sの帯域しかない。
>PCI-USB bridgeならば少なくともこの制限はない、ということ。
そんなの始めて聞いたゼ。
前段の、1EHCI辺り60MB/sしか出ないのかがホントなのか、はおいといて、
もしそうだとしても、後段の「PCI-USB brigde」ってのは結局のところEHCIなわけだから、
1つしかなければ、そこも結局60MB/s以上出るはずがないという話になると思うけど?
0535名無しさん@お腹いっぱい。2008/01/17(木) 01:20:54
なるほど、PCI-USB bridgeとやらが、何か*HCIとは違うすごい物という勘違いを
してるわけか。
0536名無しさん@お腹いっぱい。2008/01/17(木) 01:49:42
>>534
Intel製のICH内蔵EHCIが60MB/sでFSBに繋がっているということが
他社製のEHCIの構造に何か影響を及ぼしていると言っているのか?
もしそうなら言ってくれ。君のことは早々に忘れることにする。
そうでなくても大概スレ違いなので次のレスで完結してくれるようお願いする。

>>535
君はもう少し誰かの役に立つことを書け。
0537名無しさん@お腹いっぱい。2008/01/17(木) 08:18:30
何、Intel製のICH内蔵EHCIだけ(特に性能が悪くて、)
ICH内部バス(ふつうFSBとは言わない)からRootHubまで
60MB/s(480Mbps)しかないけど、
他のメーカ(NEC,VIA,SIS,AMDなど)のEHCIはそこは133MB/sの太さがある、と?
0538名無しさん@お腹いっぱい。2008/01/17(木) 09:17:04
揚げてみる
0539名無しさん@お腹いっぱい。2008/01/17(木) 10:01:43
負け惜しみはよくわかったからそろそろ他でやってくれないか。
0540名無しさん@お腹いっぱい。2008/01/17(木) 10:27:27
zfs の話題マダーーー? チンチン
0541名無しさん@お腹いっぱい。2008/01/17(木) 15:44:38
お互いほどほどにな。
元々の実験自体は中々面白いものだったし。
0542名無しさん@お腹いっぱい。2008/01/18(金) 11:40:59
ZFSファイルシステムのバグでJoyent、長時間ダウンを余儀なくされる
http://jp.techcrunch.com/archives/joyent-suffers-major-downtime-due-to-zfs-bug/
0543名無しさん@お腹いっぱい。2008/01/18(金) 12:45:11
>>542
それって、(リリース版Solarisでなく)OpenSolaris、それもsnv_43なんていう古いバージョンのを
使っててバグ踏んだだけじゃん。snv_60で9ヶ月ぐらい前にfixされてるバグだし。
http://discuss.joyent.com/viewtopic.php?id=19430
http://opensolaris.org/jive/thread.jspa?threadID=49020
0544名無しさん@お腹いっぱい。2008/01/18(金) 14:33:35
Joyentとしては、とにかく他人のせいにしとかないとね。
あ、TechCrunchのfounderは記事に名前の出てるOmnidriveのinvestorでもあるのか。
0545名無しさん@お腹いっぱい。2008/01/18(金) 16:21:01
つーか、このレベルの障害がこれだけ大きく出るってことは、逆に
それ以上のものはほぼ皆無ってことになるんじゃねーか? すげーじゃん。
0546名無しさん@お腹いっぱい。2008/01/20(日) 04:37:45
ゆとり脳かよ
05475212008/01/21(月) 01:43:43
Leopard上でのzfsだけど、デバイスのエラーが起きたとき(orパリティからの復帰時)にカーネルパニックおきるや。
6本のUSBメモリーでraidz2にして、1~2本抜いてその分新しいのをプールに追加すればほら元通りってデモやろうとしてたけど、
なんどやってもその場でパニックまたはzpool statusを実行した途端パニック。レポート送信ポチッとな。

あと、16ポートハブは出来が悪い。たくさんデータ転送してたら突然の電源断。熱が多いようだし、そのせいかもしれないが。
Mac/Winの複数環境で試したが、相性ではなさそう。一部ポートだけ接続不良とかもランダムで起きてる気がする。
さらに、機能とは関係ないが、コネクタがいい加減についてるから、差したブツがランダムで斜めになってるし。
16ポートにUSBメモリー直接差したら、ガタツキまくりのぶつかりまくりの離れまくり。熱問題も含めて延長ケーブル経由にしてしまった。

…高い遊びの割に、結果がしょんぼり。USBメモリーは当初の予定通りデータ入稿用ストックに。
ハブは、Mac Book Airを買ったら使う、かなぁ?
0548名無しさん@お腹いっぱい。2008/01/21(月) 02:30:08
ハブの電源容量は?16ポート全部使うとスペックオーバの場合もあるぞ。
0549名無しさん@お腹いっぱい。2008/01/21(月) 07:57:17
>>547
乙でした。
職業ライターさんかな?
だとしたら、スレ違いだけどVT -d、IOV特集とかお願い。
0550名無しさん@お腹いっぱい。2008/02/03(日) 14:00:28
USB端子の電力供給ってかなりショボイから、
6本同時接続自体が無謀な気もするんだが・・・
0551名無しさん@お腹いっぱい。2008/02/05(火) 21:03:20
>>550
ハブをバスパワーにしなければ無問題ではないかと
0552名無しさん@お腹いっぱい。2008/02/05(火) 21:13:34
WindowsでZFS使いたいなあ…
0553名無しさん@お腹いっぱい。2008/02/06(水) 09:52:49
>>552
他人に頼るな。自分でなんとかしてみろ
0554名無しさん@お腹いっぱい。2008/02/06(水) 10:00:37
C/C++は一応出来るけどWindowsのドライバなんて作ったことない…
まあ、6月ぐらいになったら暇になるから勉強のつもりで挑戦してみるか
■ このスレッドは過去ログ倉庫に格納されています