トップページunix
1001コメント309KB

[次世代] ZFS [ファイルシステム]

■ このスレッドは過去ログ倉庫に格納されています
0001名無しさん@お腹いっぱい。2006/05/03(水) 13:41:10
[次世代] ZFS [ファイルシステム]
次世代ファイルシステムとしての期待が高いZFSにAppleが興味を示しました。
10.6か10.5で搭載されると見られるこのZFSについて語りましょう。

Solaris ZFS
http://www.sun.com/software/solaris/zfs.jsp

OpenSolaris
http://www.opensolaris.org/os/
0233名無しさん@お腹いっぱい。2006/05/10(水) 17:05:57
>>232
SFじゃないんだから、面白いウソなら許されるなんてありえん。
0234名無しさん@お腹いっぱい。2006/05/10(水) 17:15:44
ホントであろうとスレ違いは許されない。
0235名無しさん@お腹いっぱい。2006/05/10(水) 17:27:34
スレ違いを煽ると無駄にスレ消費しますやね
適当なところで火消ししておわりにしよーよ。
0236名無しさん@お腹いっぱい。2006/05/10(水) 17:41:51
228 はもう来ないで欲しい
0237名無しさん@お腹いっぱい。2006/05/10(水) 18:31:25
MACオタが現れる限り、アンチMACオタはいつでも現れるだろう。
自作板をみても分かる通り、MACオタが、嘘、スレ違い、見苦しい
言い逃れをやめるとは思えないからな。
228の同類が現れて欲しくないと思うなら、MACオタが2度とこの板に
書き込まないことを祈るしかない。
0238名無しさん@お腹いっぱい。2006/05/10(水) 18:43:03
Macオタの執着癖は相当なものだから、追い出すのは不可能。オタ信者も同様
Macオタに犯された時点で釣堀として捉えるべき

SUNの成果物をあたかもAppleの技術のように浮かれるMac信者は末期癌的存在
こいつらが騒ぐだけでZFSの評価が2ランク下がる
0239名無しさん@お腹いっぱい。2006/05/10(水) 18:48:09
人のフリして書くなよ見苦しい。
0240名無しさん@お腹いっぱい。2006/05/10(水) 19:00:04
それだ。
MACオタ、こういう時だけコテハンやめるのな。
流れと、内容のあまりの頓珍漢ぶりからみて、>>116もMACオタっぽいね。
0241名無しさん@お腹いっぱい。2006/05/10(水) 19:40:29
俺にはアンチMACオタが「一人で」騒いでいるように見える。
0242名無しさん@お腹いっぱい。2006/05/10(水) 19:44:32
少なくとも俺以外に一人いるし、MACオタもいるので、最低三人はいるよ。
0243名無しさん@お腹いっぱい。2006/05/10(水) 20:00:03
だって共有コテハンだし
0244名無しさん@お腹いっぱい。2006/05/10(水) 21:11:32
俺にはこのスレはもう終わったように見える。
0245名無しさん@お腹いっぱい。2006/05/10(水) 21:23:48
6/06 が届かないことには、なにもみんな話せないだろうなー。
ネットにある情報と、ソースコードだけで話せる話題は少ない。

実際に運用始めた人とか出てくれば、
安定性とかパフォーマンスとかいろいろ分かってくるかと。
0246名無しさん@お腹いっぱい。2006/05/10(水) 23:24:24
nevadaで使えるじゃない。
0247名無しさん@お腹いっぱい。2006/05/11(木) 16:45:19
ZFS て、いわゆる VFS レイヤ使って実装してあるんじゃないんだよね?
もっと下からやらないとあんないろいろ機能付けれないよね?
0248名無しさん@お腹いっぱい。2006/05/11(木) 19:21:05
VFSの意味わかっていってる・・・わけないなw
0249名無しさん@お腹いっぱい。2006/05/11(木) 23:45:08
VFSの意味をわかってらっしゃる>>248様の講義が始まります。
皆様お誘い合わせのうえ奮ってご参加ください。
0250名無しさん@お腹いっぱい。2006/05/12(金) 01:26:52
つまんないやつ…
0251名無しさん@お腹いっぱい。2006/05/12(金) 06:25:53
一瞬、stackable file systemのことかな、と思ったけど
solarisにはないんだっけ。
0252名無しさん@お腹いっぱい。2006/05/12(金) 22:41:59
ZFSって今はどこまで実装されてるの?
0253名無しさん@お腹いっぱい。2006/05/13(土) 16:08:11
6/06がないからテストできないよ〜!とかわめくやつは
さっさとnevadaいんすとーるしてみやがってください。
0254名無しさん@お腹いっぱい。2006/05/13(土) 18:13:50
                  ____
        |\       ,. ‐''":::::::::::::;::::`'-、      
        |ヘ|    /::::::::::::::;:/´ヾヘ;:::::::::ヽ    
        |ヘ|   /::::::::::((,/    `、::r、:::゙,      >>1
         | ̄|   ,'::::::::::::i゙  \   / i::::i       学習ルーム来いヤ!☆
ピュー     (∃⊂ヽ !::::::::::::|  ●    ● l::::|  / 〉    ブラッドパーチーだべ
───   └┘\ !::::::::::::!          !:::!/\/
        \/  \::::::::!"" ____  ""!::| \/
────   ヽ    |::::::|   l,   /   ノ::i  /
            `、   i:::::l、ヽ.,_ `''''"  _,..イ:::::i  /
─────    ゙、  ヽ;i \ヽ,.l ̄_,l  |:::/ /
            ゙、     ヽ`、 | /  レ' /
──────    ゙、 /     `ヽ''"  i.  /
             /   NEVADA |/
───────  /              |
0255名無しさん@お腹いっぱい。2006/05/13(土) 19:40:54
むー。MacOSX上のParallelsに入れようとしたけど
なんかインストーラ自体があがってこねーぜwwwww>>253
イメージのダウソで失敗してたのかなぁ・・・・?
0256名無しさん@お腹いっぱい。2006/05/19(金) 08:41:00
|∀・)
0257名無しさん@お腹いっぱい。2006/05/22(月) 18:35:00
hageてみる
0258名無しさん@お腹いっぱい。2006/05/22(月) 18:37:18
ハゲんなボケが
0259名無しさん@お腹いっぱい。2006/05/24(水) 11:43:25
build39楽しいよ。

0260名無しさん@お腹いっぱい。2006/05/24(水) 15:31:24
>>259
build39とは?
0261名無しさん@お腹いっぱい。2006/05/24(水) 15:48:49
39 回目の神経衰弱
0262名無しさん@お腹いっぱい。2006/05/26(金) 05:21:03
ZGMF-X19A
0263名無しさん@お腹いっぱい。2006/05/26(金) 21:14:10
>>262
GM乙。
0264名無しさん@お腹いっぱい。2006/06/01(木) 00:33:32
ZFS 正式リリース月間到来
0265名無しさん@お腹いっぱい。2006/06/01(木) 16:21:54
今月は Z 月間とします。なるべく製品名に Z のついた商品を使いましょう。政府広告。
0266名無しさん@お腹いっぱい。2006/06/02(金) 07:09:33
ZFS filesytem for FUSE/Linux age
0267名無しさん@お腹いっぱい。2006/06/13(火) 14:03:06
6 月もタケナワですが、06/06 はまだでしょうか?
0268名無しさん@お腹いっぱい。2006/06/13(火) 15:14:15
きみは刻の涙をみる
0269名無しさん@お腹いっぱい。2006/06/13(火) 15:58:47
きざみのなみだ? タマネギ??
0270名無しさん@お腹いっぱい。2006/06/13(火) 16:20:50
ZZFSはまだでしょうか?
0271名無しさん@お腹いっぱい。2006/06/14(水) 00:17:28
直リンすればダウンロードでk
0272名無しさん@お腹いっぱい。2006/06/21(水) 20:27:41
ZFS化のためにテメェのHDDをもっかいフォーマットするに足る10の理由

ZFS: Ten reasons to reformat your hard drives
http://www.tech-recipes.com/solaris_system_administration_tips1446.html

from : Digg
http://digg.com/linux_unix/ZFS%3A_Ten_reasons_to_reformat_your_hard_drives
0273名無しさん@お腹いっぱい。2006/06/21(水) 23:56:48
でも俺のマシンって/一本切りだから
ZFSにしちゃうとブートできなくなるんだよな
0274名無しさん@お腹いっぱい。2006/06/22(木) 07:35:05
あー、nevadaのいくつか忘れたけど、
zfs /からブートできるようになったやつは、
6/06には入ってないんですよね。
0275名無しさん@お腹いっぱい。2006/06/22(木) 17:28:03
あれは ZFS の他にパーティションも必要だし、かなり強引なやり方での実現で、
取り込まれてないでしょ?
0276名無しさん@お腹いっぱい。2006/06/22(木) 22:54:59
6/06ダウンロードまだー?
0277名無しさん@お腹いっぱい。2006/06/23(金) 00:25:29
6/06とは、2006年6月ではなく、2007年6月06日のことだったんだよ!
0278名無しさん@お腹いっぱい。2006/06/23(金) 01:03:18
6月31日まであきらめてはいけない!
0279名無しさん@お腹いっぱい。2006/06/23(金) 12:46:31
6/20のプレスリリースに
availability todayって書いてあるんだけど、
ダウンロードするところだと、まだcoming soonって書いてある。
0280名無しさん@お腹いっぱい。2006/06/23(金) 13:36:42
June 26, 2006 って書いてあるね。
0281名無しさん@お腹いっぱい。2006/06/26(月) 15:25:31
今日だな。米西部時間か?
0282名無しさん@お腹いっぱい。2006/06/27(火) 01:09:53
6/06 出てる。けど、x86 だけ。SPARC 版はなぜかリンク切れ...
0283名無しさん@お腹いっぱい。2006/06/27(火) 01:18:21
キターーーーーーーーーーーーーーーー
0284名無しさん@お腹いっぱい。2006/06/27(火) 01:23:51
>>282
リンクの URL に '?' が足りんかった。ただいま SPARC 版ダウンロード中。
ウキキーw
0285名無しさん@お腹いっぱい。2006/06/27(火) 12:37:06
やっとこのスレの出番がやってきました!
使ってみた方、感想とかよろです!
0286名無しさん@お腹いっぱい。2006/06/28(水) 01:18:43
お前も使ってみろって > 285
おれはSUNWrealplayerというパッケージにびくーりしたよw
0287名無しさん@お腹いっぱい。2006/06/28(水) 01:41:58
よしっ、じゃあ、これから先は一度 ZFS パーティションに保存したもの以外
投稿ダメ、ってことにしよう。
0288名無しさん@お腹いっぱい。2006/06/28(水) 02:15:36
ZFS にインストールしたブラウザからのカキコはダメでつか?
0289名無しさん@お腹いっぱい。2006/06/28(水) 12:40:52
http://sunos.saita.ma/
0290名無しさん@お腹いっぱい。2006/06/28(水) 16:30:45
SPARC Solaris10 6/06いんすこしてraid-z領域作ってみた。
zpool iostat -vやらdf, du で見えるサイズってパリティの容量も
含めた形で表示されるのね。

ぱっと見で実際に使える空き容量が見えないのはちょっと不便かも
0291名無しさん@お腹いっぱい。2006/06/28(水) 19:06:38
とりあえずbonnie++-1.03aでベンチってみたので結果貼り付け
へっぽこい環境なのは勘弁ね。

【試験環境】
SF V250 / 1GB Mem / SPARC IIIi 1GHz *1

【HDD】
5. c0t9d0 <SUN36G cyl 24620 alt 2 hd 27 sec 107>
/pci@1d,700000/scsi@4/sd@9,0
6. c0t10d0 <SEAGATE-ST336605LSUN36G-0238 cyl 24620 alt 2 hd 27 sec 107>
/pci@1d,700000/scsi@4/sd@a,0
7. c0t11d0 <SEAGATE-ST336605LSUN36G-0238 cyl 24620 alt 2 hd 27 sec 107>
/pci@1d,700000/scsi@4/sd@b,0
02922912006/06/28(水) 19:07:10
【RAID-Z 36G*3】
bash-3.00# zpool iostat -v
capacity operations bandwidth
pool used avail read write read write
------------- ----- ----- ----- ----- ----- -----
datapool 602K 101G 19 121 2.27M 13.7M
raidz 602K 101G 19 121 2.27M 13.7M
c0t9d0s0 - - 7 64 830K 6.84M
c0t10d0s0 - - 7 64 782K 6.84M
c0t11d0s0 - - 6 64 737K 6.84M
------------- ----- ----- ----- ----- ----- -----

Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10 2G 24338 74 31799 25 26476 20 28239 78 97649 28 618.0 3
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 10486 98 84123 99 16544 99 7931 75 101819 98 15740 98
v250-sol10,2G,24338,74,31799,25,26476,20,28239,78,97649,28,618.0,3,16,10486,98,84123,99,16544,99,7931,75,101819,98,15740,98

02932912006/06/28(水) 19:08:34
【RAID-1 36G*2】
bash-3.00# zpool iostat -v
capacity operations bandwidth
pool used avail read write read write
------------- ----- ----- ----- ----- ----- -----
datapool 106K 33.7G 40 41 4.99M 4.71M
mirror 106K 33.7G 40 41 4.99M 4.71M
c0t10d0s0 - - 19 40 2.49M 4.71M
c0t11d0s0 - - 20 40 2.50M 4.71M
------------- ----- ----- ----- ----- ----- -----

Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10 2G 25992 79 30635 24 23659 19 30088 84 62609 18 468.2 3
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 9828 99 85253 99 10933 67 9342 96 107981 99 17208 99
v250-sol10,2G,25992,79,30635,24,23659,19,30088,84,62609,18,468.2,3,16,9828,99,85253,99,10933,67,9342,96,107981,99,17208,99
02942912006/06/28(水) 19:09:48
【Strype? 36G*2】
bash-3.00# zpool iostat -v
capacity operations bandwidth
pool used avail read write read write
----------- ----- ----- ----- ----- ----- -----
datapool 81K 67.5G 0 0 662 9.00K
c0t10d0s0 36K 33.7G 0 0 331 4.46K
c0t11d0s0 45K 33.7G 0 0 331 4.54K
----------- ----- ----- ----- ----- ----- -----

Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10 2G 29662 88 46206 35 37441 27 31343 86 106434 30 894.3 4
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 10342 99 84056 99 16615 99 8648 77 106625 99 16604 99
v250-sol10,2G,29662,88,46206,35,37441,27,31343,86,106434,30,894.3,4,16,10342,99,84056,99,16615,99,8648,77,106625,99,16604,99
02952912006/06/28(水) 19:10:28
【Single 36G*1】
bash-3.00# zpool iostat -v
capacity operations bandwidth
pool used avail read write read write
----------- ----- ----- ----- ----- ----- -----
datapool 51.5K 33.7G 0 8 17.1K 231K
c0t10d0s0 51.5K 33.7G 0 8 17.1K 231K
----------- ----- ----- ----- ----- ----- -----

Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10 2G 21779 64 33060 26 23404 16 28566 79 54388 12 324.6 1
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 10479 99 84418 99 10719 68 10363 99 108279 99 16928 98
v250-sol10,2G,21779,64,33060,26,23404,16,28566,79,54388,12,324.6,1,16,10479,99,84418,99,10719,68,10363,99,108279,99,16928,98
02962912006/06/28(水) 19:12:51
【UFS 36G*1】
Version 1.03 ------Sequential Output------ --Sequential Input- --Random-
-Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10 2G 33174 96 42439 30 14675 18 34016 98 67608 27 332.7 2
------Sequential Create------ --------Random Create--------
-Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
16 5342 48 161391 99 7310 53 8241 59 167950 97 4572 44
v250-sol10,2G,33174,96,42439,30,14675,18,34016,98,67608,27,332.7,2,16,5342,48,161391,99,7310,53,8241,59,167950,97,4572,44

SVMでMirrorした物との比較もしようかと思ったけど 同期とる時間が90minぐらい
かかるのでとりあえずパス。
あと、OSは書き忘れてたけど Solaris10 6/06でっす。
0297名無しさん@お腹いっぱい。2006/06/28(水) 23:01:56
ZFSだけで、pathの負荷分散って出来る?
0298名無しさん@お腹いっぱい。2006/06/28(水) 23:26:07
>297
無理じゃね?
SCSIならVxVM入れる、FCならSun TrafficManager or VxVMぐらいしか思いつかんわ
0299名無しさん@お腹いっぱい。2006/06/28(水) 23:46:10
ストレージメーカのものを使うか、VxVMしかないのか。
0300名無しさん@お腹いっぱい。2006/06/29(木) 01:58:50
>>291
乙〜。

さすがに36GBだけあって、転送速度は遅いけど、
RAID-Zでちゃんと高速化されてるね。

しかしファイルの作成、読込、削除が速い!
読込だけはUFSに負けてるけど、それ以外は圧勝。
というか、LinuxとかMac OS Xと比べると桁が違うぐらい速い。
それだけSolarisが優秀ってことかな?
0301名無しさん@お腹いっぱい。2006/06/29(木) 08:40:20
CPU に余力があれば compression=on で速くなるらしいね。
容量も節約できて一石二鳥。もっとも CPU が弱いと逆効果だろうけど。
0302名無しさん@お腹いっぱい。2006/06/29(木) 11:49:32
圧縮環境もとりあえず上げときます。
【RAID-Z 36G*3 compression=on】
bash-3.00# zpool iostat -v datapool
         capacity   operations  bandwidth
pool      used avail  read write  read write
------------- ----- ----- ----- ----- ----- -----
datapool    155K  101G   39   44  180K  259K
 raidz     155K  101G   39   44  180K  259K
  c0t9d0s0    -   -   2   8 97.7K  135K
  c0t10d0s0   -   -   2   9 98.2K  134K
  c0t11d0s0   -   -   2   9 97.7K  134K
------------- ----- ----- ----- ----- ----- -----

bash-3.00# zfs get compression datapool
NAME       PROPERTY    VALUE           SOURCE
datapool     compression  on             local

Version 1.03    ------Sequential Output------ --Sequential Input- --Random-
          -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine    Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10    2G 18895 55 40130 31 31153 35 25064 77 78634 50 1867 68
          ------Sequential Create------ --------Random Create--------
          -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
       files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
         16 9929 99 85010 99 15476 95 7420 74 98016 94 15434 95
v250-sol10,2G,18895,55,40130,31,31153,35,25064,77,78634,50,1867.4,68,16,9929,99,85010,99,15476,95,7420,74,98016,94,15434,95

やはしCPU負荷増えますね。 時間が取れればVxVM/VxFSとの比較も出来るけどスレ違いの上うざいかな?
0303名無しさん@お腹いっぱい。2006/06/29(木) 12:05:10
>>302
いややって欲しい。
ZFSとの比較だし問題ないだろ。
0304名無しさん@お腹いっぱい。2006/06/29(木) 12:22:37
ZFSの最大のライバルだからな。
0305名無しさん@お腹いっぱい。2006/06/29(木) 21:53:26
compression=on で cat /dev/zero >file とかするとおもすれぇw
ファイルが超巨大化しても空き容量余裕タプーリ
0306名無しさん@お腹いっぱい。2006/06/29(木) 22:03:30
その道はNTFSが何年も前に通った道だ
03072912006/06/29(木) 22:29:33
VxVM/VxFS環境でベンチってみました。
環境はH/Wは同じ VxVM4.1, VxFS4.1使用。RAID5(nlog=0),Mirrorは当然VMで作成。
それなりにブレがあるようなので本来ならそれぞれで複数回ベンチ走らせて
平均取るべきなんだろうけど面倒なんでそのあたりは勘弁。

しかしRAID5書き込みは滅茶苦茶遅いね。これはRAID-Zの圧勝。
まぁ実際S/W RAID5なんて組むことあまり無いと思うけど。
適当に結果をグラフ化してみますた。無駄に横長ですまんすorz
http://www.uploda.org/uporg429871.gif
http://www.uploda.org/uporg429873.gif
03082912006/06/29(木) 22:31:15
【VxVM/VxFS Stripe 36G*2】

bash-3.00# fstyp /dev/vx/rdsk/datadg/stripevol
vxfs

v stripevol  fsgen    ENABLED 142247936 -    ACTIVE  -    -
pl stripevol-01 stripevol  ENABLED 142247936 -    ACTIVE  -    -
sd datadg01-01 stripevol-01 ENABLED 71123968 0    -    -    -
sd datadg02-01 stripevol-01 ENABLED 71123968 0    -    -    -

Version 1.03    ------Sequential Output------ --Sequential Input- --Random-
          -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine    Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10    2G 31020 96 110525 82 22255 27 31383 98 107088 69 412.4  4
          ------Sequential Create------ --------Random Create--------
          -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
       files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
         16 6855 69 83970 99 10977 83 9050 73 85056 97 9662 78
v250-sol10,2G,31020,96,110525,82,22255,27,31383,98,107088,69,412.4,4,16,6855,69,83970,99,10977,83,9050,73,85056,97,9662,78
03092912006/06/29(木) 22:32:07
【VxVM/VxFS RAID-5 36G*3】
bash-3.00# fstyp /dev/vx/rdsk/datadg/raid5vol
vxfs

v raid5vol   raid5    ENABLED 10485760 -    ACTIVE  -    -
pl raid5vol-01 raid5vol   ENABLED 10485760 -    ACTIVE  -    -
sd datadg03-01 raid5vol-01 ENABLED 5242880 0    -    -    -
sd datadg01-01 raid5vol-01 ENABLED 5242880 0    -    -    -
sd datadg02-01 raid5vol-01 ENABLED 5242880 0    -    -    -

Version 1.03    ------Sequential Output------ --Sequential Input- --Random-
          -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine    Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10    2G 8874 32 9219  8 4113  8 22913 77 62421 54 360.7  4
          ------Sequential Create------ --------Random Create--------
          -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
       files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
         16 2766 37 81958 99 2686 39 3013 36 86437 98 2861 35
v250-sol10,2G,8874,32,9219,8,4113,8,22913,77,62421,54,360.7,4,16,2766,37,81958,99,2686,39,3013,36,86437,98,2861,35
03102912006/06/29(木) 22:33:47
【VxVM/VxFS mirror 36G*2】
bash-3.00# fstyp /dev/vx/rdsk/datadg/mirrorvol
vxfs

v mirrorvol  fsgen    ENABLED 10485760 -    ACTIVE  -    -
pl mirrorvol-01 mirrorvol  ENABLED 10485760 -    ACTIVE  -    -
sd datadg01-01 mirrorvol-01 ENABLED 10485760 0    -    -    -
pl mirrorvol-02 mirrorvol  ENABLED 10485760 -    ACTIVE  -    -
sd datadg02-01 mirrorvol-02 ENABLED 10485760 0    -    -    -

Version 1.03    ------Sequential Output------ --Sequential Input- --Random-
          -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine    Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10    2G 30864 97 42962 28 12566 14 28155 87 54015 31 522.5  4
          ------Sequential Create------ --------Random Create--------
          -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
       files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
         16 5697 57 82645 99 8720 64 7607 62 84611 97 5635 47
v250-sol10,2G,30864,97,42962,28,12566,14,28155,87,54015,31,522.5,4,16,5697,57,82645,99,8720,64,7607,62,84611,97,5635,47
03112912006/06/29(木) 22:34:23
【VxVM/VxFS single 36G*1】
bash-3.00# fstyp /dev/vx/rdsk/datadg/singlevol
vxfs

v singlevol  fsgen    ENABLED 10485760 -    ACTIVE  -    -
pl singlevol-01 singlevol  ENABLED 10485760 -    ACTIVE  -    -
sd datadg01-01 singlevol-01 ENABLED 10485760 0    -    -    -

Version 1.03    ------Sequential Output------ --Sequential Input- --Random-
          -Per Chr- --Block-- -Rewrite- -Per Chr- --Block-- --Seeks--
Machine    Size K/sec %CP K/sec %CP K/sec %CP K/sec %CP K/sec %CP /sec %CP
v250-sol10    2G 32082 96 45295 27 22303 23 25957 81 53405 31 297.7  3
          ------Sequential Create------ --------Random Create--------
          -Create-- --Read--- -Delete-- -Create-- --Read--- -Delete--
       files /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP /sec %CP
         16 6228 64 41023 49 9594 66 8583 65 89816 99 6406 51
v250-sol10,2G,32082,96,45295,27,22303,23,25957,81,53405,31,297.7,3,16,6228,64,41023,49,9594,66,8583,65,89816,99,6406,51
0312名無しさん@お腹いっぱい。2006/06/29(木) 23:56:54
ufsならufsdumpでDDSにバクアプ。
zfsはzfsdumpってのがあるの?
0313名無しさん@お腹いっぱい。2006/06/30(金) 00:45:47
   zfs snapshot filesystem@name|volume@name

     Creates a snapshot with the given name. See  the
     "Snapshots" section for details.


   zfs backup [-i snapshot] snapshot2

     Creates a backup of snapshot2. The backup is written to
     standard output, which can be redirected to a file or to
     a different machine. For example, using ssh(1). By
     default, a full backup is performed.

     -i snapshot   Perform an incremental  backup  from
             snapshot to snapshot2.

     The format of the backup archive is evolving. No back-
     wards compatibility is guaranteed. You may not be able
     to restore your backups on future versions of ZFS.
0314名無しさん@お腹いっぱい。2006/06/30(金) 03:13:19
>>4,5,6 あたり。かなり楽ちんと思われ。
0315名無しさん@お腹いっぱい。2006/06/30(金) 09:39:43
>>5のtypo発見
・水曜日の版の foo.c をちょっと見る
-$ cat ~maybee/.zfs/snapshot/wednsday/foo.c
+$ cat ~maybee/.zfs/snapshot/wednesday/foo.c
0316名無しさん@お腹いっぱい。2006/06/30(金) 10:05:18
テープにバックアップして世代管理&シーケンシャルアクセスしたいっす!
0317名無しさん@お腹いっぱい。2006/06/30(金) 13:24:31
ふっ。通はテープでランダムアクセスするんだよ。こんどやってみな。
0318名無しさん@お腹いっぱい。2006/06/30(金) 14:33:56
ふっ。真の通は脳内に全部記憶してランダムアクセスするんだよ。こんどやってみな。
0319名無しさん@お腹いっぱい。2006/06/30(金) 14:38:32
>>317
MZ-80BとかX1とかのシャープのパソコンを思い出すなぁ
0320名無しさん@お腹いっぱい。2006/06/30(金) 14:53:36
それランダムアクセスじゃないし。ひょっとするとシーケンシャルアクセスにも
入れてもらえないんでは。
0321名無しさん@お腹いっぱい。2006/07/01(土) 02:13:39
>>318
読むたびに値が変わるかCRCエラーです
漏れの脳内ダブルセクターとかのプロテクトが掛かっているもよう
0322名無しさん@お腹いっぱい。2006/07/01(土) 02:37:08
>>318
俺の脳みそは大部分が/dev/nullにリンク貼られてるようです
0323名無しさん@お腹いっぱい。2006/07/01(土) 02:43:03
>>321-322
脳みそとしては正常です。
0324名無しさん@お腹いっぱい。2006/07/01(土) 05:19:23
脳みそびろーん
  ∩___∩     
   | ノ      ヽ/⌒) 
  /⌒) (゚)   (゚) | .|  
 / /  ( _●_) ミ/
.(  ヽ  |∪|  / 読むたびに化けるクマー
 \   ヽノ /     
  /      /  
 |   _つ  /     
 |  /UJ\ \   
 | /     )  )   
 ∪   ( \    
      \_)
0325名無しさん@お腹いっぱい。2006/07/01(土) 14:46:51
/dev/zero に再リンクすれば安定する。
0326名無しさん@お腹いっぱい。2006/07/02(日) 02:30:59
/dev/urandam
0327名無しさん@お腹いっぱい。2006/07/02(日) 21:13:15
彼女を ZFS snapshot で管理したい
http://pc8.2ch.net/test/read.cgi/unix/999837578/l50
0328名無しさん@お腹いっぱい。2006/07/13(木) 06:24:11
ZFS の申し子のようなストレージ
http://www.sun.com/servers/x64/x4500/gallery/stills.xml?t=4
0329名無しさん@お腹いっぱい。2006/07/13(木) 23:14:22
価格はけっこう手ごろなのね
0330名無しさん@お腹いっぱい。2006/07/13(木) 23:32:16
最近の HDD って、あんな方向で使っていいんだ!?
0331名無しさん@お腹いっぱい。2006/07/14(金) 08:15:53
以前から、方向変えなければokじゃなかった?
最初から縦なら縦で使い続ける。
0332名無しさん@お腹いっぱい。2006/07/14(金) 13:59:28
昔の HDD は回路基盤があるのを下面、コネクタがあるのを後面とすると
下面を下にして円盤は水平、左右の側面を下にして円盤は垂直の 2 種類
(左右側面を別々に考えれば 3 種類)の置き方しかダメだったよ。
マニュアルにそう書いてあった。けどその後上面を下にしたパソコンが
ちらほら出てきたから、最近はどうとでも置けるのかな。
0333名無しさん@お腹いっぱい。2006/07/14(金) 14:12:34
ポータブルプレイヤの HDD なんか結構いろんな向きになりそうだが……
■ このスレッドは過去ログ倉庫に格納されています