[次世代] ZFS [ファイルシステム]
■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@お腹いっぱい。
2006/05/03(水) 13:41:10次世代ファイルシステムとしての期待が高いZFSにAppleが興味を示しました。
10.6か10.5で搭載されると見られるこのZFSについて語りましょう。
Solaris ZFS
http://www.sun.com/software/solaris/zfs.jsp
OpenSolaris
http://www.opensolaris.org/os/
0009名無しさん@お腹いっぱい。
2006/05/03(水) 16:00:220010名無しさん@お腹いっぱい。
2006/05/03(水) 16:06:400011名無しさん@お腹いっぱい。
2006/05/03(水) 16:08:29>>4 の通り、フォーマットという手順はないんじゃなかった?
0012名無しさん@お腹いっぱい。
2006/05/03(水) 16:28:33遅ければ適材適所で。
速度、安定性ともども文句なければ迷わず載り換えだろうな。
0013名無しさん@お腹いっぱい。
2006/05/03(水) 16:35:40> おおむね UFS より速いっぽいし、特定のデータアクセスパターンでは
> 4〜6倍速いらしいです。逆に特定のデータアクセスパターンではUFSに比べて
> 数倍遅いですが、改善する余地があるとのこと。
あと、>>2 の記事の
> I/Oパイプラインによる並列処理
あたり読むと、特に SMP では速そうな感じ。今後の多コアなサーバー用途には
向いてそう。
0014名無しさん@お腹いっぱい。
2006/05/03(水) 16:39:55いやつまりそれって「速い場合もあるし遅い場合もある」としか言ってないので
結局わかんねーじゃん。
0015名無しさん@お腹いっぱい。
2006/05/03(水) 16:47:480016名無しさん@お腹いっぱい。
2006/05/03(水) 17:01:36っつーか自分とこで開発しないで、目新しいそうな技術に注目して
「さすがはApple、目のつけ所がいいぜ」とか思わせようとする
乞食宣伝テクには、いつものことながら飽きれてしまう
0017名無しさん@お腹いっぱい。
2006/05/03(水) 17:16:020018名無しさん@お腹いっぱい。
2006/05/03(水) 17:23:37私気がついただけで 2 ヵ所破綻してますが。
UFS 使いこなせてないなら、ZFS ポンと持ってきた方が楽やん。
よそから持ってくるより、自分とこで開発した方が「さすが Apple」に決まってるやん。
てことで、あんさんアホだっか? なんくせつけんなやボケ。
0019名無しさん@お腹いっぱい。
2006/05/03(水) 17:54:14UFSよりZFSの方がリソースフォークの扱いとかでMacで使うのに楽だと聞いたよ。
0020名無しさん@お腹いっぱい。
2006/05/03(水) 18:58:090021名無しさん@お腹いっぱい。
2006/05/03(水) 19:05:57でも将来的にそういうのも考えてmicrokernelにしてんじゃないの?
solarisは無いと思うけど、freebsdやめるってのはありえない話ではないと思う。
0022名無しさん@お腹いっぱい。
2006/05/03(水) 19:09:300023名無しさん@お腹いっぱい。
2006/05/03(水) 20:27:50ttp://leaf.dragonflybsd.org/mailarchive/kernel/2005-12/msg00040.html
0024名無しさん@お腹いっぱい。
2006/05/03(水) 20:54:570025名無しさん@お腹いっぱい。
2006/05/03(水) 21:16:26http://opensolaris.org/os/community/zfs/source/
ちなみにこっちがCDDLの日本語参考訳
http://opensource.jp/licenses/cddl1.html
BSDLと違って修正したソースコードは公開しなきゃならないけど
GPLみたいな感染性がないのがAppleにとって都合がいいんだろうね
0026名無しさん@お腹いっぱい。
2006/05/03(水) 21:20:00http://www.opensolaris.org/os/licensing/
http://cvs.opensolaris.org/source/xref/on/usr/src/uts/common/fs/zfs/
0027名無しさん@お腹いっぱい。
2006/05/03(水) 23:14:56線形データアクセスの予測先読みをする機構があるから
通常のアクセスパターンだと速くなるみたいだよ。
0028名無しさん@お腹いっぱい。
2006/05/03(水) 23:18:20そういうのってzfs以外のファイルシステムでも実装できるんじゃないの?
0029名無しさん@お腹いっぱい。
2006/05/03(水) 23:18:45CDDLということは、Linuxにも移植できそうね。
ライセンス問題で採用しないディストリビューションもあるかもだけど。
ただLinuxにはZFSの機能の大半がすでにあるから、
Mac OS Xに移植するほどのメリットはなさそう。
実際にZFS使ってる人ってこの板にいるかな?
Solarisスレで声掛けたら捕まるかな?
0030名無しさん@お腹いっぱい。
2006/05/03(水) 23:27:41そりゃ実装できるかどうかで言えばFAT16にだってできるだろうけど
そんな指摘には意味なくない? ZFSではそういうある程度
インテリジェントな機構を最初からFSレベルに統合してるのが
キモなわけでしょ。ジャーナリングにしてもRAIDにしてもそうなわけで。
0031名無しさん@お腹いっぱい。
2006/05/03(水) 23:40:19あるにはあるけどな。
ファイルシステムの方は機能的には充実しているけど、実績がいまいちだし、
LVMやmdに至っては、どっちも本家筋に当たるHP-UXやSolarisの劣化コピーだしな。
そういう意味では、ZFSみたく一貫したものが欲しいところだな。
0032名無しさん@お腹いっぱい。
2006/05/03(水) 23:42:45LinuxにはReiser4があるからそれでいんでないの。
0033名無しさん@お腹いっぱい。
2006/05/03(水) 23:46:590034名無しさん@お腹いっぱい。
2006/05/04(木) 02:34:19大きいファイルで一部だけを書き換える場合、
ZFSは別のブロックに一部データを書き込んでから、
ファイルシステムのツリーを変更するみたいだけど、
そんなことしてたら大きいファイルの場合、
ブロックがあちこちに点在(断片化)するんじゃないだろうか。
HFS+みたいに断片化してたら、
自動的に連続ブロックに移動させる機能でもあるのかな。
0035名無しさん@お腹いっぱい。
2006/05/04(木) 03:12:55ワラ
君は…ちょっと知識が足りないかも…
0036名無しさん@お腹いっぱい。
2006/05/04(木) 03:16:00CoW
0037名無しさん@お腹いっぱい。
2006/05/04(木) 03:34:03LVM+JFS2の方がよくね?
0038名無しさん@お腹いっぱい。
2006/05/04(木) 03:51:18>トランザクション的操作
>ディスク上のデータは必ず常に整合状態。fsck(1M)不要は当たり前、でjournaling filesystemではない
これって矛盾しているような気がするんですけれど・・・
トランザクション的操作=journaling
なんじゃないんですか?
0039名無しさん@お腹いっぱい。
2006/05/04(木) 03:51:33うーん、そうなのかなー。
詳しく教えてくださ〜い。
0040名無しさん@お腹いっぱい。
2006/05/04(木) 03:58:40下の引用の一番頭のポインタを書き換えるまでは、
ファイルツリーに一切変更がないから、
いつでも元に戻せる(ロールバック)できるような様を表してるんじゃないかと。
他のFSのジャーナリングは、変更ログをどんどん書き足していって、
フラッシュ時にツリーに変更ログを書き込むことで、
フラッシュ前にOSが落ちたりしても復旧できる仕組みなんじゃなかったっけ?
> 整合性の保持には「何か書き込みを行う場合は必ず元データを新しい場所にコピーしてから」
> (copy-on-write)で、1つ版のあがったファイルシステムのイメージを作成し、
> 古い版を指している一番頭のポインタを新しい版を指すように変更する
> (ここがアトミック)という方法を行っているようです
0041名無しさん@お腹いっぱい。
2006/05/04(木) 08:21:23「的」ってのがアヤシイけど、
「トランザクション処理」ってのは、
複数の処理を一つのように処理すること。trans-action=処理をまたがって
FOLDOCだと See {atomic}と注釈。
Journalingはそれを実現するための技法。
更新記録を取りながら、更新を進めていく。
0042名無しさん@お腹いっぱい。
2006/05/04(木) 14:52:30だけどさ、特定のデバイスドライバとかと違って汎用のファイルシステムで、
しかも UFS に代えてこれから主流として使おうってもんなんだから、
一応 Fire E25K とかのハイエンドで業務利用するのも視野に入ったレベルで
実装がすすめられてるわけで、とりあえず入れてみました、この先実用まで
たどりつけるかどうかわかりません、てないい加減なもんでは少なくともないわな。
Linux のガラクタファイルシステム群といっしょくたにすんなよな。
0043名無しさん@お腹いっぱい。
2006/05/04(木) 15:19:35本格的に普及するのは、あとバージョン二つぐらい上がらんとだめだろうな。
それまでSunが残ってるかどうか心配だがw
0044名無しさん@お腹いっぱい。
2006/05/04(木) 15:28:25もちろんzfs snapshotなりなんなりでいいんだけど
0045名無しさん@お腹いっぱい。
2006/05/04(木) 15:31:00UFS なくなったりはしないと思うが。
0046名無しさん@お腹いっぱい。
2006/05/04(木) 15:38:410047名無しさん@お腹いっぱい。
2006/05/04(木) 15:43:000048名無しさん@お腹いっぱい。
2006/05/04(木) 15:49:16それは知らんが... そんな愛着あるわけ?w
0049名無しさん@お腹いっぱい。
2006/05/04(木) 17:35:35カプセル化した場合でしょ。
VxFSネイティブはHP-UXならvxdumpがある
Solaris用にそれがにあるか知らんけど
0050名無しさん@お腹いっぱい。
2006/05/04(木) 21:31:080051名無しさん@お腹いっぱい。
2006/05/04(木) 22:49:09ZFS 移行後は LFS は Sprite で使ってあげてください。
0052名無しさん@お腹いっぱい。
2006/05/05(金) 00:28:19リストアらくちんでイイね。
ファイルシステムもリストア掛けたらつくってくれるし。
俺のデスクトップ程度で使ってる程度じゃトラブルないし。
0053名無しさん@お腹いっぱい。
2006/05/05(金) 00:36:26http://www.itmedia.co.jp/enterprise/articles/0605/04/news009.html
0054名無しさん@お腹いっぱい。
2006/05/05(金) 00:49:35使ってる人キタ━━━━━(゜∀゜)━━━━━!!!!
よかったらベンチマークとかしてみてくれませんか?
ディレクトリやファイルを10000個とか作ったり、
100KB程度のファイル1000個に書き込んだり、読み込んだり、
1GB程度のファイルを書き込んだり、読み込んだり。
誰かベンチマーク用のいいソフト知りませんかー?
もしくはベンチマーク用のスクリプト書いて〜。
0055名無しさん@お腹いっぱい。
2006/05/05(金) 01:10:05>UNIX File Systemsの代替として最適だとしている。
・・・・ん、あ、ufsかwww
0056名無しさん@お腹いっぱい。
2006/05/05(金) 03:11:50>>29
ライセンス的には、GPLのLinuxカーネルにCDDLのZFSを
そのまま持ってくるのは難しい。
そのため、互換コードを作成するしかないみたい。
↓この辺りを読んでみるといいかも。
http://www.opensolaris.org/jive/thread.jspa?messageID=25633?
http://www.gnu.org/licenses/license-list.ja.html
http://d.hatena.ne.jp/kinneko/20060502/p12
ベンチマーク情報はこの辺りみたい
ZFS and RAID-Z benchmark results vs. ext3 and XFS with Linux SW RAID-5
http://www.opensolaris.org/jive/thread.jspa?messageID=19368?
0057名無しさん@お腹いっぱい。
2006/05/05(金) 05:13:57ZFSは最初からデータの書き込み中にOS落ちたりすることを前提に作ってるから、
ジャーナリングとかの中途半端な仕組みは要らない。
いつHDのケーブルを引っこ抜こうとも、ファイルシステムは正常な状態ってこと
つまりfsckみたいなエラーリカバリのphaseを作らなくても
次の稼働中に前回落ちたときのトランザクション分はロールバックされるわけだ
ロールバック対象前はファイルがファイルシステムによってロックされている
DB分かる人なら、トランザクションの考え方と同じだよ
クライアントで使うメリットを考えると、
これからのSATA/eSATAとかのホットプラグに対応したHDを使うにはうってつけ
ボリュームプールでパーティションの容量を好きなように変更できるのもいい
LinuxのLVMみたいな機構をファイルシステムレベルで実装したってことだね
ファイルシステムレベルでRAID機能持ってるのもいい
チェックサムでデータが壊れないってのもいい
暗号化でノートPC盗まれても安心だ
スナップショットはクライアント環境ではいらないと思う
主にDBサーバのバックアップとかに使う技術だから
0058名無しさん@お腹いっぱい。
2006/05/05(金) 05:24:000059名無しさん@お腹いっぱい。
2006/05/05(金) 07:05:09> ジャーナリングとかの中途半端な仕組みは要らない。
&
> DB分かる人なら、トランザクションの考え方と同じだよ
…
0060名無しさん@お腹いっぱい。
2006/05/05(金) 07:11:57OpenBSDにはうってつけだな。
0061名無しさん@お腹いっぱい。
2006/05/05(金) 07:55:31Leopardで採用するなんて誰か言ったか…?
0062名無しさん@お腹いっぱい。
2006/05/05(金) 09:17:51コピペうぜえ
0063名無しさん@お腹いっぱい。
2006/05/05(金) 09:39:390.03u 25.07s 7:09.92 5.8%
まぁそもそもうちはDISKがはやく無いからなぁ・・・
[ID 640982 kern.info] IDE device at targ 1, lun 0 lastlun 0x0
[ID 846691 kern.info] model ST380011A
[ID 479077 kern.info] ATA/ATAPI-6 supported, majver 0x7e minver 0x1b
[ID 228648 kern.info] ata_set_feature: (0x66,0x0) failed
0064名無しさん@お腹いっぱい。
2006/05/05(金) 10:17:38http://pc8.2ch.net/test/read.cgi/win/1144321927/611
http://pc8.2ch.net/test/read.cgi/unix/1146631270/57
http://pc7.2ch.net/test/read.cgi/pc/1145100048/349
http://pc7.2ch.net/test/read.cgi/pc/1144887195/522
http://pc8.2ch.net/test/read.cgi/win/1145027419/870
0065名無しさん@お腹いっぱい。
2006/05/05(金) 10:30:41なんで、ZFS(16EiB)がUFS2(1YiB)に、
ボリュームサイズが負けてるのかと思ったら、
ZFS can store 16 Exabytes in each storage pool, file system, file, or file attribute.
これなのね。
0066名無しさん@お腹いっぱい。
2006/05/05(金) 11:33:110067名無しさん@お腹いっぱい。
2006/05/05(金) 12:05:040068名無しさん@お腹いっぱい。
2006/05/05(金) 12:14:21俺は、Solarisでいいや。
0069名無しさん@お腹いっぱい。
2006/05/05(金) 12:14:53私の発言を集めて編集してあちこちに貼り付けるとは…。
ちょっと複雑な気分。
> DB分かる人なら、トランザクションの考え方と同じだよ
ここは誤解を招きやすいから元スレでもツッコミが入った。
> スナップショットはクライアント環境ではいらないと思う
ここは元スレで、クライアント環境でもウイルスとかに感染した場合に有効だって話が出た。
0070名無しさん@お腹いっぱい。
2006/05/05(金) 12:18:06> LeopardではZFS 128bit FileSystem採用が最大の話題だね
Mac OS X 10.5(Leopard) には間に合わないと思う。
10.5って今年末〜来年頭ぐらいのリリース予定だったはず。
0071名無しさん@お腹いっぱい。
2006/05/05(金) 12:34:50Microsoft Office for Macもその一つ。
0072MACオタ>71 さん
2006/05/05(金) 14:09:19--------------------
そもそもUFSじゃまともに動くかんアプリ多いし。
--------------------
その理由の大半わ、「"case sensitive"じゃないことを前提にしている」ってだけでFSの仕様と関係無いす。
0073名無しさん@お腹いっぱい。
2006/05/05(金) 14:45:58違うよ。
コテで無知晒すのって恥ずかしくない?
0074名無しさん@お腹いっぱい。
2006/05/05(金) 15:01:07ここ数日だけでも、Intel次世代スレとかAMD次世代スレとか
CPUアーキスレとかで、あからさまな間違いを指摘されまくってるし。
0075名無しさん@お腹いっぱい。
2006/05/05(金) 15:04:59MacもSolarisと同じくエンディアンの問題があるんだな。
MacのHFS+やUFSがCPUのエンディアンによってフォーマットが変わるのかどうか知らんが。
0076MACオタ
2006/05/05(金) 15:21:38そうすか?多くのクロスプラットフォームアプリわ、もはやリソースフォークを持たないし特に問題が
おきる理由も無い筈すけど。。。
>>74 さん
あちこちで印象操作ご苦労様す。決して具体例わ指摘できないようすけど(笑)
>>75 さん
UFSわエンディアンでフォーマットに互換性が無くなるとのことす。
http://docs.sun.com/app/docs/doc/819-0386/6n2qla469?a=view
-------------------------
PARC と x86 とでは UFS フォーマットが異なります。SPARC はリトルエンディアンによるビット
コーディング、x86 はビッグエンディアンによるビットコーディングを採用しています。UFS 用に
フォーマットされたメディアは、それらがフォーマットされたハードウェアプラットフォームに制限されます。
-------------------------
0077名無しさん@お腹いっぱい。
2006/05/05(金) 15:39:140078名無しさん@お腹いっぱい。
2006/05/05(金) 15:44:22MacのUFSの話だがな。
0079名無しさん@お腹いっぱい。
2006/05/05(金) 15:57:10・CPUアーキスレ
英文Webページの内容を誤読。ページに書いてあることを書いてないと勘違いして
AMDを中傷。
http://pc7.2ch.net/test/read.cgi/jisaku/1139046363/593-595
・AMD次世代スレ
PC Watch の後藤氏の記事を誤読。
記事に書いてないことを、書いてあると思い込み、後藤氏を馬鹿呼ばわり。
http://pc7.2ch.net/test/read.cgi/jisaku/1145187468/118-130
・Intel次世代スレ
数日の間に、山のような間違いを書いたので、いちいち指摘しきれんが、
いくつかを挙げると、
・MPPマシンはメモリ共有アーキテクチャだと主張。
http://pc7.2ch.net/test/read.cgi/jisaku/1144400151/664
http://pc7.2ch.net/test/read.cgi/jisaku/1144400151/670
・MPP⊃HPCクラスタ という記述を MPP=クラスタ だと誤読。
http://pc7.2ch.net/test/read.cgi/jisaku/1144400151/774
・調査会社のガートナーの名称をカートナーと勘違い。
http://pc7.2ch.net/test/read.cgi/jisaku/1144400151/774
・SR8000を大規模SMPだと主張。
http://pc7.2ch.net/test/read.cgi/jisaku/1144400151/787
・SMPクラスタと大規模SMPの区別をつけられないことを露呈。
http://pc7.2ch.net/test/read.cgi/jisaku/1144400151/787
具体例を指摘できないと思ってるってことは、MACオタは、上のような
自分の間違いを、いまだに間違いじゃないと信じてるってことなのかな?
0080名無しさん@お腹いっぱい。
2006/05/05(金) 16:06:41だったが、そこから派生した各ベンダの実装が、エンディアン依存か
独立かは、それとは別の話だな。
NetBSDは options FFS_EI をつければ、どちらのエンディアンで書いた
ffs も読み書きできるし、MacOS X は、NetBSD から派生したコードも
含んでいるから、big endian で書かれたファイルシステムを、
little endianの Core Duo マシンで読み書きできても不思議はない。
MacOS X の話をしてるのに Sun のドキュメントを引用するのは的はずれ。
実際にどうなのかは知らんが。
008173
2006/05/05(金) 16:07:20xnu/bsd/ufs/ufs/ufs_byte_order.cが変換。
mount時のoptionで指定可能。MNT_REVEND。
続きはmac板のUNIXスレで。>>76の馬鹿も知りたければ来な。
0082MACオタ>79 さん
2006/05/05(金) 16:08:13面倒なのでまとめると
・英文Webページの内容を誤読。 <- 私の書き込みに英文記事への引用わ無いす
・後藤氏の記事を誤読 <- 誤読かどうかわ当該スレッドを読んで貰うとして、元記事がそういう性質のモノ
・MPP云々<- 分類についてわTop500.orgサイトの記事を読んでDr. Dongarraに文句を言って欲しいす(笑)
0083MACオタ>73 さん
2006/05/05(金) 16:09:52それってUFSでMS Officeが不具合を発生する原因なんすか(笑)
0084名無しさん@お腹いっぱい。
2006/05/05(金) 16:10:44そこのベンチマーク、Createの結果はあっても他がないねー。
bonnie++がZFSでのReadとDeleteに対応してないとか?
NFS経由の結果はあるから、それを見る限りファイル操作は
ext3の半分ぐらいのパフォーマンスかな。
ただReadはむしろ早いから、ほとんどの用途では全体的に早くなりそう。
用途として向かないのはメールサーバぐらいかな?
あとZFS使ってる人いたら、暗号化した状態とかで、
ベンチマークしてみてもらえませんか?
http://www.coker.com.au/bonnie++/
0085名無しさん@お腹いっぱい。
2006/05/05(金) 16:14:13ない筈だが、何言ってんだ、このバカは?
0086名無しさん@お腹いっぱい。
2006/05/05(金) 16:21:07/**ファイルシステム総合スレ その4**/
http://pc8.2ch.net/test/read.cgi/linux/1136695633/
○関連リンク
ファイルシステム比較
ttp://en.wikipedia.org/wiki/Comparison_of_file_systems
ベンチマーク
ttp://www.opensolaris.org/jive/thread.jspa?messageID=19368
分かりやすいZFSの解説
ttp://kikyou.info/diary/?200603#i10
0087名無しさん@お腹いっぱい。
2006/05/05(金) 16:33:040088MACオタ>85 さん
2006/05/05(金) 16:55:36--------------------
SR8000 を大規模SMPだなんて書いたことは一度もない
--------------------
SR8000わ90年代後半に開発され、日立のニュースリリースによると98年12月に初号機納入という代物す。
http://www.hitachi.co.jp/Prod/comp/hpc/jpn/news_j.html
同時期に開発されているPOWER3のSMP機ってのわ、16-wayでこんな筐体す。
http://www.univ-lille1.fr/calcul-intensif/corinfo.htm
SR8000の9-way SMPが「大規模」じゃ無いってのわ、当時の常識から見てちと違うんじゃないすか?
0089MACオタ@補足
2006/05/05(金) 16:58:46それから、
------------------------
Dr. Dongarra が、SR8000 を大規模SMPだなんて書いたことは一度も
ない筈だが、
------------------------
少なくとも、Top500の解説にあるように"Shared Memory MIMD"をMPPに分類するというのわ認めたと
思っておくす。
・MPPマシンはメモリ共有アーキテクチャだと主張。
で、これ間違いなんすか(笑)
0090名無しさん@お腹いっぱい。
2006/05/05(金) 17:01:200091名無しさん@お腹いっぱい。
2006/05/05(金) 17:02:04HFS+でbonnie++のベンチマークしてみたけど、遅い遅いw
RAIDも使ってないし、G5 1.6GHzだし、しょうがないかな。
PowerMac G5 1.6GHz, Memory 1GB, HDD WD3200JD, Mac OS X 10.4.6, HFS+
Version 1.03, Size 300M, files 16
------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
26612 91 56964 33 54835 25 35490 92 477783 86 +++++ +++
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
/sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
3650 66 9645 90 3885 67 423 12 25087 80 191 7
0092名無しさん@お腹いっぱい。
2006/05/05(金) 17:03:10┏┳┳┓ ハイ. ┏┳┳┓
┏┫┃┃┃池沼と遊ぶのは ┃┃┃┣┓
┃┃┃┃┣┓ ここまで ┏┫┃┃┃┃
┃ ┃┃┏━━━┓┃┃ ┃
┃ 池沼 ┣┫ . ・∀・ ┣┫. STOP!┃
┗━━━━┛┗┳━┳┛┗━━━━┛
┏┻┓┃
┏━┛ ┣┻┓
┗━━━┫ ┗━┓
. ┗━━━┛
0093名無しさん@お腹いっぱい。
2006/05/05(金) 17:17:20スマン、もうちょい遊ばして。(w
> 少なくとも、Top500の解説にあるように"Shared Memory MIMD"をMPPに分類するというのわ認めたと思っておくす。
馬鹿だねえ。まだ、それが誤読だと気づいてないのか?
Top500 の解説には、「MIMD マシンの一種として shared memory MIMDがある」
とは書いてあるが、「MPP は shared memory MIMD である」とは一言も書いてない。
MACオタは、そう書いてあると誤読して、Top500 の記述を引用したが、
じつはその引用部分には「MPP は shared memory システムではない」という
意味のことが書いてある。(w
そのことは Intel スレでさんざん陰に指摘されているのに、相変わらず
理解できてないようだな。(w
> ・MPPマシンはメモリ共有アーキテクチャだと主張。
> で、これ間違いなんすか(笑) もちろん間違い。
まだ気づいてなかったのは、はっきり言って、ちょっと驚いたよ。
> SR8000の9-way SMPが「大規模」じゃ無いってのわ、当時の常識から見てちと
> 違うんじゃないすか?
ハァ?
その何年も前に、10倍以上の規模を持つOrigin 2000 があったわ。
1997年ぐらいには、Sun あたりでも、64プロセッサの Enterprise 1000 を
出してる。
書けば書くほど、馬鹿がバレるんだから、いいかげんに黙れば?
0094名無しさん@お腹いっぱい。
2006/05/05(金) 17:29:01メモリ1GBのマシンで Size 300M ではベンチマークにならんのでは?
最低でもメモリの倍くらい、できれば10倍くらいのサイズにしないと。
0095MACオタ>93 さん
2006/05/05(金) 17:51:16----------------------
じつはその引用部分には「MPP は shared memory システムではない」という
意味のことが書いてある。(w
----------------------
間違いす。以上(笑) http://www.top500.org/orsc/2005/architecture.html#architecture
0096名無しさん@お腹いっぱい。
2006/05/05(金) 17:56:03というわけで、池沼とのお遊びは、これで終りにします。
0097MACオタ
2006/05/05(金) 18:09:57良いかと思うす。私がやっても良いすけど、ここでやっちゃ迷惑そうなんで止めておくす。。。
0098名無しさん@お腹いっぱい。
2006/05/05(金) 18:17:34いう風にもとれるね。MACオタの勘違いはそこから発してるのか?
しかし、ccNUMA は MPP に含まないと考えるのが普通だと思うよ。
たとえば、以下の SGI のページでも、ccNUMA は MPP-like な
スケーラビリティを達成できるのが利点である (すなわち ccNUMA
は MPP ではない) と書いてある。
ttp://techpubs.sgi.com/library/tpl/cgi-bin/getdoc.cgi/linux/bks/SGI_Developer/books/LX_AppTune/sgi_html/ch01.html
2005年10月28日発行だから、十分新しい文書だが。
Top500 のそのページの記述は変だな。
0099名無しさん@お腹いっぱい。
2006/05/05(金) 18:20:14だからと言って、カートナーとかいう調査会社があると想像する
理由にはならんだろう。(w
0100名無しさん@お腹いっぱい。
2006/05/05(金) 18:26:02上のベンチマークのページと引数合わせてみた。
大して結果は変わらないねー。
PowerMac G5 1.6GHz, Memory 1GB, HDD WD3200JD, Mac OS X 10.4.6, HFS+
bonnie++ -r 1024 -s 8g
Version 1.03, Size 8G, files 16
------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
26800 92 53541 32 24789 12 27211 73 51446 15 118.0 1
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
/sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
4132 77 8548 91 3723 67 429 13 26851 87 194 7
Xserve G5 x 2 Fedora 5でも今試してるけど、
なぜか10倍ぐらい時間掛かってる。
結果が出たら報告する。
0101名無しさん@お腹いっぱい。
2006/05/05(金) 18:38:28どれもディスク速度が遅くて比較にならない。
ttp://yamk.net/0930.html
ttp://t.nomoto.org/diary/archives/2005_01.html
ttp://lists.debian.org/debian-knoppix/2003/02/msg00285.html
ttp://www.ait.pref.akita.jp/~kurosawa/raidLogComp.html
一つ言えるのはHFS+とかXFSとかののBツリー型はDeleteが遅いってことかな。
0102名無しさん@お腹いっぱい。
2006/05/05(金) 19:31:42bonnie++ -r 1024 -s 8g
Version 1.03, Size 8G, files 16
------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
5051 99 42674 27 22711 9 5508 99 56594 8 135.5 1
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
/sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
15274 99 +++++ +++ 23921 99 14764 94 +++++ +++ 23868 99
ZFSの人、報告頼む。
010363
2006/05/05(金) 19:39:33Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
machine 2G 21737 25 25737 7 17059 3 47881 57 49757 3 216.4 0
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 19664 68 +++++ +++ +++++ +++ 28324 97 +++++ +++ +++++ +++
machine,2G,21737,25,25737,7,17059,3,47881,57,49757,3,216.4,0,16,19664,68,+++++,+++,+++++,+++,28324,97,+++++,+++,+++++,+++
こんなんでいいのかな。
010463
2006/05/05(金) 19:44:20Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
machine 10G 20091 23 25023 6 16578 3 40543 49 45665 3 200.3 0
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 27625 92 +++++ +++ +++++ +++ 15546 57 +++++ +++ 23038 54
machine,10G,20091,23,25023,6,16578,3,40543,49,45665,3,200.3,0,16,27625,92,+++++,+++,+++++,+++,15546,57,+++++,+++,23038,54
0105名無しさん@お腹いっぱい。
2006/05/05(金) 19:53:41sequential output の rewrite (54.8MB/s vs 24.8MB/s)
sequential input の block (478MB/s vs 51.4MB/s)
random seek (86/sec vs 15/sec)
あたりはかなり違いが出てると思うよ。
478MB/s って値は、メモリキャッシュのせいだね。
0106名無しさん@お腹いっぱい。
2006/05/05(金) 20:14:03nv_b37, Blade 1000 750MHz, LSI logic SAS1068, T7K250 x3 台
# zpool iostat -v (default の stripe)
capacity operations bandwidth
pool used avail read write read write
---------- ----- ----- ----- ----- ----- -----
mypool 288K 696G 2 3 336K 441K
c2t0d0 220K 232G 0 1 112K 147K
c2t1d0 28K 232G 0 1 112K 147K
c2t2d0 39.5K 232G 0 1 112K 147K
---------- ----- ----- ----- ----- ----- -----
# ptime mkfile 10g testfile_10g
real 1:46.628
user 0.196
sys 41.708
bonnie++:
Version 1.03
------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
machine 8G 25108 98 63450 61 53474 62 23554 97 135876 86 840.4 8
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 6405 99 +++++ +++ 10016 99 6580 97 +++++ +++ 11205 99
machine,8G,25108,98,63450,61,53474,62,23554,97,135876,86,840.4,8,16,6405,99,+++++,+++,10016,99,6580,97,+++++,+++,11205,99
0107名無しさん@お腹いっぱい。
2006/05/05(金) 20:16:09ありがとー。
Createの速度は十分速いけど、なぜかReadとDeleteの結果がないね〜。
上のベンチマークのページにもないんだよねー。なんでだろ?
あと暗号化ってもう実装されてるのかなー?
Solaris 10 6/06のZFS 1.0で実装されてくるかな?
0108名無しさん@お腹いっぱい。
2006/05/05(金) 23:07:15今ZFSスレでFSベンチマークやってるんだけど、GWで暇な人、一緒にやらない?
http://pc8.2ch.net/test/read.cgi/unix/1146631270/
bonnie++
ttp://www.coker.com.au/bonnie++/
Linux板に張り付けてくんじゃねえよ、ロリBSD野郎共
■ このスレッドは過去ログ倉庫に格納されています