dupchecked22222../4ta/2chb/922/11/unix133741192221764067319 OpenSolaris/Illumos (OpenIndiana, etc.) 6◎正当な理由による書き込みの削除について:      生島英之とみられる方へ:

OpenSolaris/Illumos (OpenIndiana, etc.) 6


動画、画像抽出 || この掲示板へ 類似スレ 掲示板一覧 人気スレ 動画人気順

このスレへの固定リンク: http://5chb.net/r/unix/1337411922/
ヒント:5chスレのurlに http://xxxx.5chb.net/xxxx のようにbを入れるだけでここでスレ保存、閲覧できます。

1 :
名無しさん@お腹いっぱい。
2012/05/19(土) 16:18:42.91
OpenSolaris/Illumos プロジェクト、派生ディストリビューション総合スレ
Sun/Oracle からリリースされる本家「Solaris」に関しては専スレでお願いします

前スレ:OpenSolaris/Illumos (OpenIndiana, etc.) 5
http://toro.2ch.net/test/read.cgi/unix/1285876800/

OpenSolaris 公式サイト http://opensolaris.org/
Illumos 公式サイト http://illumos.org/

Genunix(OpenSolaris コミュニティ/ミラーサイト) http://genunix.org/

[ディストリビューション一覧]
・ OpenIndiana http://openindiana.org/
    (OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換)
・ Nexenta OS http://nexenta.org/
    (Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせ)
・ StormOS http://stormos.org/
    (Nexenta ベースのデスクトップ向けディストリビューション)
・ AuroraUX http://auroraux.org/
    (通常の x86、AMD64 に加え、PowerPC にも対応)
・ Jaris http://jaris.jp/
    (日本発のプロジェクト)
・ Belenix http://belenix.org/
・ SchilliX http://schillix.berlios.de/
・ MilaX http://milax.org/
・ etc.
2 :
名無しさん@お腹いっぱい。
2012/05/20(日) 01:31:31.61
>>2の[ディストリビューション一覧] だけど、大分現状とは異なってるので直したほうがよさそう。

[ディストリビューション一覧]
・ OpenIndiana http://openindiana.org/
    (OpenSolaris distro == Indiana の実質的後継、Solaris とバイナリ・パッケージ互換)
・ Illumian http://www.illumian.org/
    (Solaris/Illumos カーネル・ユーザランドとAPTパッケージ管理システムの組み合わせ
     NexentaCore後継)
・ NexentaStor http://nexenta.org/
    (Solaris/Illumos カーネルと Debian/Ubuntu ユーザランドの組み合わせによるストレージサーバ用OS)
・ StormOS http://stormos.org/
    (Nexenta ベースのデスクトップ向けディストリビューション)
・ OminiOS http://omnios.omniti.com/
・ SmartOS http://smartos.org/

(以下のディストリビューションは長期間更新なし)
・ AuroraUX http://auroraux.org/ (消滅)
    (通常の x86、AMD64 に加え、PowerPC にも対応)
・ Jaris http://jaris.jp/ (消滅)
    (日本発のプロジェクト)
・ Belenix http://belenix.org/ (消滅)
・ SchilliX http://schillix.berlios.de/
・ MilaX http://milax.org/
3 :
名無しさん@お腹いっぱい。
2012/05/21(月) 06:51:50.59
おはようございます。前スレ>>975です。新スレ乙です。
ご報告遅くなりすいません。代替機は用意できたのですが、前スレ>>989の段階でscanが
終了していなかったため、一応それを待っていました。先ほどscanが終わり、以下の状態になりました。

pool: tank
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: resilvered 118G in 39h45m with 271168 errors on Mon May 21 05:12:12 2012
config:

NAME STATE READ WRITE CKSUM
tank DEGRADED 0 0 2.95M
raidz1-0 DEGRADED 0 0 11.4M
spare-0 DEGRADED 0 0 660
c6t1d0 FAULTED 0 0 0 too many errors
c3t5d0 ONLINE 0 0 0
c6t2d0 DEGRADED 0 0 0 too many errors
c6t3d0 DEGRADED 0 0 0 too many errors
c6t4d0 REMOVED 0 0 0
spares
c3t5d0 INUSE currently in use

errors: 271145 data errors, use '-v' for a list

SMART情報ですが、SATA2とSATA5の2台でBADが発生しています。やっぱり物理的に2台に
問題が発生してしまっているようです。ダメっぽいですね。
一応、これから代替機につないでみます。
4 :
名無しさん@お腹いっぱい。
2012/05/21(月) 19:30:43.84
もう一台スペア追加してみるかな
5 :
名無しさん@お腹いっぱい。
2012/05/21(月) 20:35:13.13
http://www.oracle.com/technetwork/jp/content/1202-1500-ords-zfs4-251476-ja.pdf
以前ここに貼られてたやつけど、この資料によるとHD1台破損時の
再構成失敗率がRaid5で2〜20%、Raid6でほぼ0%らしいから
スペア追加ではなくRaidZ2に移行してみては?
6 :
名無しさん@お腹いっぱい。
2012/05/21(月) 20:58:30.92
いや、そーゆー話じゃなくて
現状の構成にスペア追加したらどうかな、と
7 :
名無しさん@お腹いっぱい。
2012/05/21(月) 21:04:55.29
ホットスペア持つなら最初からRAIDZ2の方がいいと思うが
細かくチェックしてトラブル時にすぐに入れ替える方がいい
8 :
名無しさん@お腹いっぱい。
2012/05/21(月) 21:12:45.39
それはそーだけど、そーゆーことじゃなく
今追加したら回復しないかな?って話
9 :
名無しさん@お腹いっぱい。
2012/05/21(月) 21:21:42.04
>>8
Applications may be affected.
って言ってる時点で回復は難しいぞ
読めなかった部分が読めるようになれば別だが
10 :
名無しさん@お腹いっぱい。
2012/05/21(月) 22:15:58.27
oiの場合、S.M.A.R.Tは何ていうアプリを入れれば
見れるんでしょう?
11 :
名無しさん@お腹いっぱい。
2012/05/21(月) 23:48:30.24
>>10
smartmontools
12 :
名無しさん@お腹いっぱい。
2012/05/22(火) 08:23:55.43
ZFSってHDDを個別識別出来たっけ?
ベタコピーで同じディスクと認識するならディスク4台用意してddした方が早いかもしれない。
13 :
名無しさん@お腹いっぱい。
2012/05/22(火) 18:49:31.29
>>10
/opt/SUNWhd/bin/hd
14 :
前スレ975
2012/05/22(火) 23:03:02.38
みなさん、お世話になってます。色々な提案や情報提供、感謝です。
まだ、作業中ですが、中間報告します。

代替機は土日に届いたのですが、結局そこにつなぎ換える作業はやめて、
バックアップ先として利用しました。
今回の故障機はiscsiターゲットとして利用していたのですが、故障直後は
認識できなくなってしまっていたのに、リセット後は認識できるようになり、
ボリューム内のファイルも読み込み可能でした。
そこでiscsiイニシエータ側から別サーバーにファイル単位でコピーしている最中です。

コピー1回目はIOエラーがかなり出て読めないファイルも多かった上に、
oi自体が勝手に落ちてしまう(電源OFFになる)という状態でした。

そこで一度電源OFFし半日程してからコピーをやり直した所、IOエラーが
発生していたファイルも読めるようになりました。内容はVMイメージ等、
巨大なファイルが多いのですが、テキストファイル類をcatで覗いてみた所、
正常な内容を確認できました(電源OFF前は読めなかった)。

こう考えると冷却が良かったように思えますし、今考えればOSの正常終了を
1週間も待ったりしないで、早々に電源OFFし1日ぐらい冷やす方がよかったのかも
知れないと思えてます。

まだコピー中ですが、コピーが終わったらVMを起動してみようと思います。
15 :
前スレ975
2012/05/25(金) 01:37:12.80
前スレ975です。
まだまだ復旧に時間がかかりそうなのですが、いい感じに復旧しつつあるのでご報告します。

故障機はiscsiイニシエータで、ファイルシステムは vmfs(ESX専用ファイルシステム)を利用していますが、
約50個ぐらいのVMが格納されていました。このうち、重要度が高かったり、バックアアップが古いのでなんとか
復旧したい物は1割程度なのですが、それらはほぼ全て復旧できました!

ファイル単位でscpでコピーしている最中なのですが、それぞれのファイルは、

1群. 何度アクセスしてもアクセス不能な物(ごく少ない)
2群. 何度かアクセスしているうちにアクセスできなくなってくる物(3割程度)
3群. 正常にアクセスできる物(7割程度)

というような感じです。2群のファイルは4、5時間マシンを止めてからアクセスすればまたアクセス
できる状況です。10分程度の冷却では無理でした。
そのような感じで順次、復旧している最中です。
将来、同じ状況に陥ってしまった場合、是非マシンの冷却を試みて下さい。

作業終了時にまたご報告します(しばらく先になりそうですが)
色々なノウハウをご教示頂き、ありがとうございました。
16 :
前スレ975
2012/05/25(金) 03:09:13.44
訂正

故障機はiscsiイニシエータで、

故障機はiscsiターゲットで、
17 :
名無しさん@お腹いっぱい。
2012/05/29(火) 00:18:55.82
18 :
名無しさん@お腹いっぱい。
2012/05/29(火) 00:46:20.28
スレチかも知れませんが、教えてください。
OpenIndianaの151aにKVMをインストールしたのですが、/dev/kvmがありません。
手順としては
driver/i86pc/kvm、system/qemu、system/qemu/kvmインストール後再起動
BIOSがIOMMUに対応していなかったので、アップデート後有効
/dev/kvmが無かったので、インストールしたものを一度削除し再インストールしました。

インストールして正常に動作されている方、何かヒントをいただけたら。
19 :
名無しさん@お腹いっぱい。
2012/05/29(火) 09:02:36.33
>>18
カーネルモジュールがロードされてないとか
ハードウェアの対応が不十分とか
20 :
吠鉱山 ◆STCMXN/JPY
2012/06/01(金) 13:39:54.90
pfexec pkgutil -i -y hogehogeすき。
pfexec pkg install hogehoge死ぬほどきらい。
21 :
名無しさん@お腹いっぱい。
2012/06/07(木) 18:33:55.43
個人用ファイルサーバーにしてるOpensolarisからそろそろ乗り換えようかと思うんだが
Sol11とOIのどっちにするか悩む
ファイル共有関連の設定方法に違いが出てきてるし
22 :
名無しさん@お腹いっぱい。
2012/06/14(木) 03:25:32.73
zfsってWWNできちんと使える?
今、HDDの1台を交換しているんだけど、WWNが変わるせいで組み込めない
変な汗が出てきたよ
23 :
名無しさん@お腹いっぱい。
2012/06/14(木) 05:50:02.64
エラーメッセージ書いてみたら?
24 :
名無しさん@お腹いっぱい。
2012/06/14(木) 23:34:51.13
zpool replace がエラーになるってことなんかな?
25 :
22
2012/06/15(金) 01:50:46.95
usr1@oi151a:~$ zpool status -v zpool
pool: zpool
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://www.sun.com/msg/ZFS-8000-8A
scan: scrub canceled on Mon Jun 11 20:59:18 2012
config:

NAME STATE READ WRITE CKSUM
zpool DEGRADED 703 0 0
c2t50014EE111111111d0 ONLINE 0 0 0
c2t50014EE222222222d0 ONLINE 0 0 0
c2t50014EE333333333d0 DEGRADED 703 0 10 too many errors
c2t50014EE444444444d0 ONLINE 0 0 0

errors: List of errors unavailable (insufficient privileges)

こうなっていたので、
26 :
22
2012/06/15(金) 01:51:55.41
電源切って別のHDDに入れ替えたら
usr1@oi151a:~$ dmesgzpool status -v zpool
pool: zpool
state: UNAVAIL
status: One or more devices could not be opened. There are insufficient
replicas for the pool to continue functioning.
action: Attach the missing device and online it using 'zpool online'.
see: http://www.sun.com/msg/ZFS-8000-3C
scan: none requested
config:

NAME STATE READ WRITE CKSUM
zpool UNAVAIL 0 0 0 insufficient replicas
c2t50014EE111111111d0 ONLINE 0 0 0
c2t50014EE222222222d0 ONLINE 0 0 0
c2t50014EE333333333d0 UNAVAIL 0 0 0 cannot open
c2t50014EE444444444d0 ONLINE 0 0 0

こうなった。接続先は同じなんだけどzfsには新しいc2t50014EE999999999d0は認識されない
27 :
22
2012/06/15(金) 01:53:19.51
名前を指定してreplaceしようとしたら
usr1@oi151a:~$ zpool replace zpool c2t50014EE333333333d0 c2t50014EE999999999d0
cannot open 'zpool': pool is unavailable

poolがUNAVAILなのが駄目らしいので、ONLINEにしようとしても
usr1@oi151a:~$ zpool online zpool c2t50014EE333333333d0
cannot open 'zpool': pool is unavailable

これでもやっぱり駄目
usr1@oi151a:~$ zpool online zpool c2t50014EE999999999d0
missing device name

といわれてONLINEにできない、今ここ
28 :
名無しさん@お腹いっぱい。
2012/06/15(金) 02:31:20.20
もしかしてそれstripeなのか?
29 :
名無しさん@お腹いっぱい。
2012/06/15(金) 07:25:31.52
stripeだから次のようにメッセージが出てるわけだな

status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.

冗長デバイス抜きのpoolがHDD交換で復旧すると思ってたんだろうか?
30 :
名無しさん@お腹いっぱい。
2012/06/15(金) 15:29:19.66
変な汗どころじゃ済まない話になってきたな
31 :
名無しさん@お腹いっぱい。
2012/06/15(金) 21:14:14.85
壊れたディスクをddなりでイメージコピーしてみる、位か……
32 :
名無しさん@お腹いっぱい。
2012/06/16(土) 01:33:19.76
壊れたHDDってddで読み出せるの?
33 :
名無しさん@お腹いっぱい。
2012/06/16(土) 02:10:13.51
元の状態でプールがDEGRADEDってことは辛うじてアクセスできんのか?
だったらその死にかけのHDD戻してある程度のデータは救えないのかな
34 :
22
2012/06/16(土) 03:02:05.22
あれ?stripe?

usr1@oi151a:~$ sudo zpool history | grep "zpool create"
2011-03-13.17:49:21 zpool create zpool c2t50014EE111111111d0 c2t50014EE222222222d0 c2t50014EE333333333d0 c2t50014EE444444444d0

あばばばば

pool作り直して首つってきます。
35 :
名無しさん@お腹いっぱい。
2012/06/16(土) 03:21:35.12
zpool statusの時点で気付けw
36 :
名無しさん@お腹いっぱい。
2012/06/16(土) 03:30:40.61
>>33
比較的軽傷な単一ディスクのプールならやったことあるけど
ストライプメンバーだとどうなるんだろうな?
37 :
22
2012/06/16(土) 12:05:20.60
>>36
自分の場合、被害を受けているのは最近書き込んだファイルのみで
それ以外の部分は問題がありませんでした。当然、HDDの壊れ方に
もよると思いますが。

しかし、運用中にWRITEでエラーが出ていないのにREADでNGって
いやですね。定期的にscrubしておけばよかった。
38 :
名無しさん@お腹いっぱい。
2012/06/16(土) 15:25:46.64
>>32
「正常に」読み出せるかどうかは、運次第
conv=noerror とかして、とにかく読めるところだけでもコピーするって話
39 :
名無しさん@お腹いっぱい。
2012/06/16(土) 18:02:35.09
>>37
SATA HDDだとREAD ERROR発生で終了というパターンが基本じゃね?
代替領域がある限りこそっと処理してるからSMART見てなきゃ気付かないはず
40 :
名無しさん@お腹いっぱい。
2012/06/22(金) 23:14:38.88
copies=2
とか指定してたとするとstripeメンバが死んだ状態でもそれなりに生きてるファイルは読み出せる・・・
のではないかと予想はしているが実験してみたことはない。
あんまり使う予定が思いつかないがどうなんだろうな>copies
41 :
名無しさん@お腹いっぱい。
2012/06/22(金) 23:27:42.28
>>40
そのはず…だけどおれも試したことないわw
RAIDZかミラーするから
42 :
名無しさん@お腹いっぱい。
2012/06/22(金) 23:52:04.39
そのコピーって別のディスクにって言う保証は無かった気がする
43 :
名無しさん@お腹いっぱい。
2012/06/23(土) 02:38:04.65
zfsのマニュアルページにはこう書いてあるな

copies=1 | 2 | 3
 Controls the number of copies of data stored for this dataset.
 These copies are in addition to any redundancy provided by the pool,
 for example, mirroring or RAID-Z.
 The copies are stored on different disks, if possible.

「可能なら」別のディスクに書くみたいだな
しかし冗長性なしのpool選んでこれに期待するのって単なるバカだろw
44 :
名無しさん@お腹いっぱい。
2012/06/24(日) 08:42:19.83
そんな奴は居ないので安心しろ
45 :
名無しさん@お腹いっぱい。
2012/07/04(水) 00:58:48.08
46 :
吠鉱山 ◆STCMXN/JPY
2012/07/04(水) 14:25:09.50
もうopensolaris時代みたいにSPARC版出さないのかね。
47 :
名無しさん@お腹いっぱい。
2012/07/05(木) 00:46:33.19
>>46
出したいけどSPARC用の人員が足りてないらしい
我こそはと思う人はぜひ名乗り出てほしいそうな
48 :
名無しさん@お腹いっぱい。
2012/07/13(金) 11:53:58.49
LSI の SAS HBA に Supermicro の JBOD を使っている時に、cfgadm -c
unconfigure を実行すると該当のスロットのランプは点灯してくれますか?
49 :
名無しさん@お腹いっぱい。
2012/07/13(金) 15:37:54.23
unconfigureで自動点灯させる意味がわからん
保守したいHDDの位置を示すならlocator使うだろ

JBODって本来はspanningのはずなのに
単純な複数HDD筐体までそう呼ぶ連中がいて紛らわしいな
50 :
名無しさん@お腹いっぱい。
2012/07/14(土) 01:22:59.97
>>49
そういうオプションがあるのですね。
ディスクが故障した場合は、unconfigure -> locator=on -> 交換 -> locator=off -> configure という感じでしょうか。
よび方は JBOD chassis とよんだほうがいいですか?
51 :
名無しさん@お腹いっぱい。
2012/07/14(土) 12:50:25.40
JBODでディスク交換なんてことになったらデータすっ飛んでるんじゃね?
52 :
名無しさん@お腹いっぱい。
2012/07/15(日) 00:24:47.66
ZFS で mirror を組もうと考えていて、ドライブが故障した場合に間違えずに
交換する方法があるのかと思い質問させていただきました。

ZFS は RAID カードを使わないことが推奨されているようですが、今は状況が
変わっていたりしますかね?

WriteBack Cache が付いた RAID カードなら RAID カードで RAID を組んだほうが
速いんじゃないかという気もしますが。
53 :
名無しさん@お腹いっぱい。
2012/07/15(日) 09:45:36.46
>>52
ZFSのメリットなくてもいいなら、
それでも良いんじゃ。
ま、好きにしろって事だが。
54 :
名無しさん@お腹いっぱい。
2012/07/15(日) 12:42:15.56
最初にスロットなりコネクタなりディスクなりにシールでも貼っとけばいいんじゃねーの?
あと、今時、生の UFS で使える程度の容量で我慢できるものなのかね?
どっちにしろ svm なり使うんだったら、zfs の方が管理上マシだと思うが
55 :
名無しさん@お腹いっぱい。
2012/07/15(日) 14:42:51.42
>>53
raw disk を使うメリットって何?
WriteBack Cache を使うと、ZIL を SSD に置かなくても、
書き込みが遅くならないというメリットがあるけど。
56 :
名無しさん@お腹いっぱい。
2012/07/15(日) 14:43:49.37
>>54
いや、RAID はハードウェア RAID で作って、その上に ZFS を作るということです。
57 :
吠鉱山 ◆STCMXN/JPY
2012/07/15(日) 14:45:47.32
冗長性ェ…
58 :
名無しさん@お腹いっぱい。
2012/07/15(日) 14:56:33.26
#この手のバカって、なんで後付で条件増やすんだろう?

RAIDカードに金払わなくて済むならそのほうが安く上がるだろ
そも、なんでSSD付きのRAIDカードなんてものがあるんだろうねぇ?
59 :
名無しさん@お腹いっぱい。
2012/07/15(日) 15:52:37.88
SSD付きのRAIDカードとははつみみです :)
60 :
名無しさん@お腹いっぱい。
2012/07/15(日) 15:53:39.20
ZFS って貧乏人のためのファイルシステム?
61 :
吠鉱山 ◆STCMXN/JPY
2012/07/15(日) 16:10:48.86
そう思っていた時期が俺にもあr(ry
一回使ってみろよ。ちびるで。
62 :
名無しさん@お腹いっぱい。
2012/07/15(日) 16:24:09.69
最近の LSI SAS 2208 速いですぜ。
63 :
名無しさん@お腹いっぱい。
2012/07/16(月) 18:35:20.88
>>60
本体メモリは逆に必要になるけどなw
64 :
名無しさん@お腹いっぱい。
2012/07/16(月) 19:10:20.92
>>60
金持ちじゃないと性能が出ません
65 :
名無しさん@お腹いっぱい。
2012/07/16(月) 19:20:36.50
ふむふむ...

Solaris 11, OpenIndiana, and NexentaStor benchmarks on ESXi 5.0
http://blog.b3n.org/2011/12/solaris-11-openindiana-and-nexentastor.html

66 :
吠鉱山 ◆STCMXN/JPY
2012/07/16(月) 20:03:46.28
結構差があるもんだな…。
67 :
名無しさん@お腹いっぱい。
2012/07/21(土) 17:09:26.03
ちと教えて頂きたいのだけど、
OpenIndianaでpkg install使ってgccやmysqlなど落とした際、
BEが勝手に作成されて再起動を促されるが、以後GRUB直後で再起動を繰り返してしまう。
何かオペレーションが抜けているんだろうか?
インストールしたのはoi-dev-151a-text-x86.iso。
68 :
吠鉱山 ◆STCMXN/JPY
2012/07/21(土) 17:16:39.78
eだかcだか押してgrub書き直してみたらどーだい。
んでmilstone切って(メンテナンスモード?)で上がるかやってみる。
問題の切り分けにはなると思うんだけれど。
69 :
名無しさん@お腹いっぱい。
2012/07/21(土) 17:42:06.81
milestone=none指定でも上がらないようだった。
なんでだろ。
70 :
吠鉱山 ◆STCMXN/JPY
2012/07/21(土) 18:25:37.16
今手元に86機が無いから確認しようもないのだけれど、恐らくgrubの指定が間違っているのが原因だと思うなぁ。
そういや86のopen使ってた頃、無理矢理updateしたら上がらなくなった(自業自得)
もし古いBEが残っているならそっちを試すしか。
71 :
名無しさん@お腹いっぱい。
2012/07/21(土) 19:50:29.87
Ummm... システムが修正してくれてるのに頼ってるところもあるからなぁ。
Solaris11だったらうまくいったりするのかな。試してみる。
72 :
名無しさん@お腹いっぱい。
2012/07/25(水) 19:58:37.38
H/W RAIDってそんな早いか?自由度下がるし。
73 :
名無しさん@お腹いっぱい。
2012/07/25(水) 21:41:53.62
MegaRAID SAS 9265-8iを使ってみなさい。
74 :
吠鉱山 ◆STCMXN/JPY
2012/07/26(木) 11:15:16.85
仕様が同じでも、製品ごとで性能に凄く差が出るよね。
75 :
吠鉱山 ◆STCMXN/JPY
2012/07/28(土) 00:57:33.19
メモ: Adobe Flash Player 11.2 はプラットフォームとして Solaris をサポートする最後のバージョンです。

BSDを思い出す…。
76 :
名無しさん@お腹いっぱい。
2012/07/28(土) 06:10:15.42
Flash Player自体が時代遅れ
77 :
名無しさん@お腹いっぱい。
2012/07/28(土) 12:19:30.39
http://get.adobe.com/jp/flashplayer/otherversions/
ここ見ると Linux 版でも同じようなこと書いてあるし、
つうか Windows 版の方がもっと古くね?
>>76 の通りなのかも…
78 :
名無しさん@お腹いっぱい。
2012/07/28(土) 19:05:09.65
そういやMOSのFlashバーションも廃止されたなw
79 :
名無しさん@お腹いっぱい。
2012/08/07(火) 03:10:27.30
OpenSolarisって、Linuxでいうbondingドライバみたいなのないの?
80 :
名無しさん@お腹いっぱい。
2012/08/07(火) 04:57:28.20
>>79
dladm create-aggr とか...
81 :
名無しさん@お腹いっぱい。
2012/08/14(火) 23:31:10.78
LSI SAS 2308 でデバイス名からスロットを特定するのには、
LSI から落してきた、SAS2IRCU を使うしかないんですかね?

cfgadm はこんなかんじでした。

root@solaris:~# cfgadm -x led c6::j5000ppn225q63669,0
cfgadm: Configuration operation not supported
root@solaris:~# cfgadm -x locator c6::j5000ppn225q63669,0
cfgadm: Configuration operation not supported
82 :
名無しさん@お腹いっぱい。
2012/08/15(水) 19:54:17.04
そういや io 151a5 出てたで。
83 :
名無しさん@お腹いっぱい。
2012/08/18(土) 04:58:20.14
>>82
>>45で既出やで
84 :
名無しさん@お腹いっぱい。
2012/08/31(金) 00:48:58.36
SchilliX 0.8 release
85 :
名無しさん@お腹いっぱい。
2012/09/03(月) 13:07:23.18
151a5でストライプミラーからraidz2に移行しようと思って、vdevをzfs send | receiveしたら、zfs listのusedが、元のと比べて倍になってもうた。

どなたか経験した方います?
86 :
名無しさん@お腹いっぱい。
2012/09/03(月) 22:05:25.75
>>85
copies = 2 になってるとか?
REFERが同じならUSEDが違うのはusedbysnapshotsとかチェックしてみるとか
87 :
名無しさん@お腹いっぱい。
2012/09/04(火) 18:05:42.00
88 :
名無しさん@お腹いっぱい。
2012/09/04(火) 21:35:37.47
アップデートでカーネルパニック祭りを喰らったからp5をクリーンで入れて環境構築終わったばっかりなのにorz
89 :
名無しさん@お腹いっぱい。
2012/09/04(火) 23:15:04.15
>>86
ありがとうございます。
確認してみます。
90 :
名無しさん@お腹いっぱい。
2012/09/05(水) 02:36:37.23
>>88
今回はバグと脆弱性対応だからISOファイル無しと書かれていて
アップデートしかできないはずだから安心しろ
91 :
名無しさん@お腹いっぱい。
2012/09/05(水) 19:50:18.09
最近活発だな。
プロジェクトリーダーの退任と、なんか関係あるのか?w
92 :
名無しさん@お腹いっぱい。
2012/09/06(木) 03:47:32.36
AndroidのカーネルっていうかLinuxと呼ばれるものを全て取り除いて
Android/OpenSolarisや
Android/Illumos
って事にできるの?
93 :
名無しさん@お腹いっぱい。
2012/09/06(木) 09:00:45.91
やってみ。
94 :
名無しさん@お腹いっぱい。
2012/09/06(木) 11:28:09.36
>>93
可能なのか可能じゃないのか知りたいんだけど。。
95 :
名無しさん@お腹いっぱい。
2012/09/06(木) 11:32:34.85
やってみればわかるよ。
やるつもりがないなら答え知ってもしょうがないよ。
96 :
名無しさん@お腹いっぱい。
2012/09/06(木) 11:42:50.46
ARM版illumosが存在しないから、x86版Androidでやるか、
illumosをARMに移植する作業からやることになるけど、不可能ではないはず
97 :
名無しさん@お腹いっぱい。
2012/09/06(木) 14:04:35.72
ARM版OpenSolarisはあるな
98 :
名無しさん@お腹いっぱい。
2012/09/06(木) 21:53:11.80
>>94
可能
99 :
名無しさん@お腹いっぱい。
2012/09/06(木) 21:53:41.38
>>94
不可能
100 :
名無しさん@お腹いっぱい。
2012/09/06(木) 22:33:54.50
素粒子レベルの可能性でもいいなら
101 :
名無しさん@お腹いっぱい。
2012/09/07(金) 01:11:28.08
>>94
お前が責任もってやつなら可能
102 :
忍法帖【Lv=40,xxxPT】(1+0:8)
2012/09/07(金) 11:26:42.01
>>94
やるなら可能
103 :
名無しさん@お腹いっぱい。
2012/09/09(日) 08:54:28.25
151a6に上げたらGUIが立ち上がらなくなった。困った。
104 :
名無しさん@お腹いっぱい。
2012/09/12(水) 16:14:06.26
151a5をクリーンインストールしてstorage-serverを追加して順調に動いていたのに
初めて再起動したら数分でカーネルパニックのループに突入した。

aggr0に使ってるe1000g*のhostname.*を消してなかったので起動時にplumb出来ないというエラーが出てたので削除したのと
何となく信用できないbge0のケーブルを引っこ抜いたら無事起動した。もちろんケーブルはその後で刺した。
105 :
名無しさん@お腹いっぱい。
2012/09/12(水) 23:36:25.01
OpenIndianaのコンパイル環境ってどのパッケージを入れれば良いんでしょうか?
106 :
104
2012/09/13(木) 10:01:35.05
原因はやはりbge0でした。
panic時のスタックトレースにbgeが出てたので条件を調べてたんですが
bgeでvlanの仮想nicを作ってると起動時にbgeにケーブルが接続されているときにpanicします。
別の物理nicにvlanを設定すると再起動してもpanicしなくなりました。
107 :
104
2012/09/13(木) 10:42:20.33
追記
L2スイッチの方でタグ付きVLANのパケットを流すようにしてあるとやっぱりpanicしました。
bge関係はvlanを扱わないようにして解決しました。
108 :
名無しさん@お腹いっぱい。
2012/09/13(木) 21:08:26.23
ストレージ鯖用に使ってみたいんだけどテンプレにあるNexentaStorでおk?
109 :
104
2012/09/13(木) 22:12:43.25
LACPで全くリンクしないので気がついたんですがaggrに組み込んだnicの状態変化を全く認識しなくなってました。
色々試しても改善しないのでデバイス認識からやり直してdladm+ipadmで設定し直したところ
bgeの問題も含めて、とりあえず安定したようです。

コンパイラに関しては以下を登録しpkg search sun studioで解決しました。

InfiniBandについて語るスレ
http://toro.2ch.net/test/read.cgi/hard/1305552336/463
>463 :不明なデバイスさん :2012/03/12(月) 19:00:47.75 ID:oBZTj5fF
>>>460
>pkg set-publisher -g http://pkg.openindiana.org/legacy opensolaris.org
>パッチの当たってない SunStudio12.1 を再配布してるらしい。
>
>http://www.illumos.org/projects/illumos-gate/wiki/How_To_Build_Illumos
110 :
104
2012/09/15(土) 10:07:04.96
肝心のコンパイルが通らないので結局gccのパッケージを入れましたorz
111 :
104
2012/09/24(月) 19:29:17.27
…bgeドライバって実はαレベル?
またpanicループしてたので全通信をaggrのvlanに集約した。
これで二週間問題なければbgeのイーサネットポートは捨てる。

e1000のクアッドポートnicを突っ込んだしもういいやorz
よく考えたらbgeは151に成ってから使えるようになったんだから安定してるかわからんよなぁ…
112 :
名無しさん@お腹いっぱい。
2012/09/29(土) 17:42:36.14
zfs bootでインストールしたいのですが、現状はmirror以外の構成は不可能ですか?
113 :
名無しさん@お腹いっぱい。
2012/09/29(土) 17:59:54.33
単体が選べるでしょ
114 :
名無しさん@お腹いっぱい。
2012/09/29(土) 19:58:06.83
あ、ごめんなさい。raidzプールにインストールしたかったんです。
115 :
104
2012/09/29(土) 21:45:34.85
むりっぽ

単体からミラー構成にしようとしたらinstallgrub忘れててそのまま元のディスクを外したもんだから…どっちのディスクでも起動しなくなりましたorz
起動環境のセレクタも出ないからブートセレクタかそれいぜんの問題っぽいのはわかるんだけどMBRとか関係あったっけかなぁ…
マウントしてgrubのファイルを弄って…あかん一日コースや
116 :
名無しさん@お腹いっぱい。
2012/09/30(日) 02:52:10.19
XStreamOSっていうIllumosベースの新しいディストリビューションが出た
http://www.sonicle.com/index.jsp?pagename=xstreamos&parent=products
117 :
吠鉱山 ◆STCMXN/JPY
2012/09/30(日) 04:56:47.83
そろそろ本格的にsparc版が欲しいぜ。
118 :
名無しさん@お腹いっぱい。
2012/09/30(日) 22:13:32.49
>>117
27日にOpenIndianaベースのディストリビューションのSPARC用LiveDVDが出た。
試してみるといいかも。
http://wiki.openindiana.org/oi/MartUX_OpenIndiana+oi_151a+SPARC+LiveDVD
119 :
吠鉱山 ◆STCMXN/JPY
2012/10/01(月) 00:31:23.34
お。サンクス。早速試してみようか。
120 :
吠鉱山 ◆STCMXN/JPY
2012/10/01(月) 00:35:28.87
フレームバッファはXVR-1000や1200対応してるのね。凄い。
121 :
吠鉱山 ◆STCMXN/JPY
2012/10/01(月) 11:08:45.79
まだまだ完成度が低いな…。
# X11go.shで落ちちゃうし。
122 :
名無しさん@お腹いっぱい。
2012/10/01(月) 18:55:16.06
Tシリーズ縛りとかもなし?
123 :
名無しさん@お腹いっぱい。
2012/10/01(月) 23:37:32.96
不手際でトラブったけどやっぱり好きだわ、これ。
sparcマシン探してみようかな。
124 :
名無しさん@お腹いっぱい。
2012/10/06(土) 09:37:59.78
zfs snapshotでout of spaceとか言われるからなんでだろうと思ったらボリュームのスナップショットはそのままのサイズで領域予約がくるのか。
どうすれば回避できるんだろう。
125 :
名無しさん@お腹いっぱい。
2012/10/07(日) 09:56:17.07
oi_151a_prestable7 Release Notes
http://wiki.openindiana.org/oi/oi_151a_prestable7+Release+Notes

今回はISOファイルあり
126 :
名無しさん@お腹いっぱい。
2012/10/07(日) 12:33:45.93
>>124
zvol -s付きで作ればいいんじゃね?
それでも足りないなら、pool増やすしか無いとおと思うが。
127 :
名無しさん@お腹いっぱい。
2012/10/07(日) 19:59:13.21
>>126
シン・プロビジョニング、マニュアルには非推奨になってるけど、うーん…。
かといってマシン間でボリュームをsend&recvするためだけにプールを倍以上のサイズにするのも…。
うーむ、そもそもvolumeのリザーブがそのままのサイズなのが問題なんだからコレ弄って何とかならんか。


…と思ってzfs get allしたらsend&recvで別マシンに行ったり来たりしたvolumeのreservasionとrefreservasionがnoneになっとる。
volsizeが変わってないって事は、え?もしかしてrecvの時ってリザーブが強制ゼロ???
128 :
名無しさん@お腹いっぱい。
2012/10/07(日) 22:22:08.50
>>127
sendかrecvのオプションでプロパティーが保存されてないんでしょ。send -pかな?
http://docs.oracle.com/cd/E26924_01/html/E25824/gbchx.html
ここらへん参照で。
129 :
名無しさん@お腹いっぱい。
2012/10/08(月) 20:46:37.94
>>128
あっちゃー(__;
そこまで読んでなかったよ。ありがとう。次からプロパティを持ってくか検討する。
130 :
名無しさん@お腹いっぱい。
2012/10/14(日) 17:53:04.38
かなり前に、opensolaris のカーネルをAndroidに移植しようっていった人ですけど。
やったらどうなるのかなー?
普通のAndroidに比べて動作は遅くなる?
131 :
名無しさん@お腹いっぱい。
2012/10/14(日) 19:41:42.19
早い遅い以前にお前には移植とか無理
132 :
名無しさん@お腹いっぱい。
2012/10/15(月) 03:50:14.87
>>131
なんで?
133 :
名無しさん@お腹いっぱい。
2012/10/15(月) 13:21:24.51
Androidってのは Linuxの上に作ってあるんじゃなくって、下や横に拡張してある。
Linux捨てて他の既存 OS持ってくるのはたぶん大変。
134 :
名無しさん@お腹いっぱい。
2012/10/15(月) 22:34:20.00
>>132
まずAndroidをわかってなさそうだから。
135 :
名無しさん@お腹いっぱい。
2012/10/16(火) 20:31:13.81
カーネルを移植の意味がよくわからない
136 :
名無しさん@お腹いっぱい。
2012/10/16(火) 22:31:18.01
意味がわからない話題に無理に参加しなくていいです。
137 :
吠鉱山 ◆STCMXN/JPY
2012/10/16(火) 22:33:37.66
しかし現実的に考えて、そう容易い事ではない罠。
138 :
名無しさん@お腹いっぱい。
2012/10/16(火) 23:24:11.45
「Android用に」カーネル移植なら理解できるが
「Androidに」カーネル移植というところがバカっぽい

様々な知識と技術を要する別アーキテクチャへの移植と改造を
こんなゆるい頭の持ち主がやれるとは思えないんだよな
139 :
名無しさん@お腹いっぱい。
2012/10/16(火) 23:44:09.83
どうせ、「仮定の話なので〜」で、自分のことを棚に上げて話し出すんだよ。
140 :
名無しさん@お腹いっぱい。
2012/10/17(水) 00:19:24.39
ん?Solaris上でAndroidアプリ動かそうって話じゃないよな?
Androidとかどうでもいいだろ。
Android端末でSolarisを動かそうという前提なら、
ARM版Solarisはあったろ。あれをベースに改造だ。
ドライバは、x86で動くAndroidあるぐらいだから、x86 Solarisのが割りと流用きくとみた。
がしかし、わーいSolarisが動いたぐらいで、モチベが保てる作業じゃないだろうな。
面白そうではあるが。
141 :
名無しさん@お腹いっぱい。
2012/10/17(水) 00:51:02.52
Androidの上に仮想マシン立ててそこで動かすって話じゃないのか?
142 :
名無しさん@お腹いっぱい。
2012/10/17(水) 02:06:08.82
皆さん浅い知識の僕が馬鹿な質問をしてしまいすみません。
Androidのカーネル、Linuxの部分を切り取りそれに相当する物をOpensolaris 持ってきてAndroidのカーネルにすり替えたいという魂胆です。
143 :
名無しさん@お腹いっぱい。
2012/10/17(水) 02:45:00.25
何がしたいの?
144 :
名無しさん@お腹いっぱい。
2012/10/17(水) 03:13:35.87
それ、AndroidのユーザーランドをIllumous下に移植って言わんか?
Illumous+debianのIllumianやらあるので不可能だとは思わないが
滅茶苦茶大変であろうことは想像に難くない。
AndroidのユーザーランドなんてLinuxカーネルべったりだろうしね。
145 :
名無しさん@お腹いっぱい。
2012/10/17(水) 08:05:17.00
>>142
試しにやってみればいいじゃん。
146 :
名無しさん@お腹いっぱい。
2012/10/17(水) 08:40:06.69
>>142
なに言ってるのかさっぱり分からんぞ・・・
まずは日本語の勉強からだな。
147 :
名無しさん@お腹いっぱい。
2012/10/17(水) 09:35:37.45
>>144
んと、Androidは共有メモリとかプロセス間通信とか独自拡張してて、
アプリはそれ使いまくり。ユーザーランドじゃなくて、カーネルに大幅に
手が入ってる。分離も悪い(のが Androidのやり方がまずいのか Linuxの
作りがわるいからなのかまでは知らんw)
148 :
名無しさん@お腹いっぱい。
2012/10/17(水) 11:25:33.97
とにかく、今のAndroidと殆ど変わりなく動いてくれて、Linuxという名前がつかない物がほしいんです。
AndroidがLinuxと言われてるのはカーネルがLinuxだからですよね?
だから、Linuxカーネルを取り除いて他の何かを入れたかったんです。
できますか?
149 :
名無しさん@お腹いっぱい。
2012/10/17(水) 11:57:11.64
>>148
技術があれば出来るよ。
その技術力が有るかどうかは知らないけどねw
150 :
名無しさん@お腹いっぱい。
2012/10/17(水) 12:03:09.55
>>148
ライセンスとか考えずに、ただ出来るか出来ないかでだけで言えば、出来る。
ただ、それをやるためには、OS 1個作るくらいの時間と労力が必要になるかもだが、
それでもやってみたいなら、やれば?

その辺からファイル落としてきて、installとかで出来ないの?レベルの話なら、出来ない。
自分で作れ。
151 :
名無しさん@お腹いっぱい。
2012/10/17(水) 12:23:17.74
>>148
できますかじゃない。
やるんだ。
152 :
名無しさん@お腹いっぱい。
2012/10/17(水) 14:08:50.35
スマホにも「intel inside」、Intel製CPUのAndroidスマホが直輸入、モトローラ「RAZR i」
http://akiba-pc.watch.impress.co.jp/hotline/20121020/etc_motorola.html

これでいいでないかい?
153 :
名無しさん@お腹いっぱい。
2012/10/17(水) 15:53:32.17
Atomという名前のプロセッサが載っていてもPC用とは違う件
154 :
名無しさん@お腹いっぱい。
2012/10/17(水) 16:16:54.37
>>148
> とにかく、今のAndroidと殆ど変わりなく動いてくれて、Linuxという名前がつかない物がほしいんです。
なんで?
155 :
名無しさん@お腹いっぱい。
2012/10/17(水) 17:54:21.91
OpenSolarisベースで、Android互換な「新規の」OSを、開発するしかないかも。
Androidの、非 Linuxなコード部分を使えるのかどうか知らんが。

Solarisと、Linuxはソースの構成はかなり違うと思うぞ。
156 :
名無しさん@お腹いっぱい。
2012/10/17(水) 20:56:05.17
皆さんありがとうございます。

やはり
難しいのですね。
兎に角Linuxという名前がつかないスマホのOSがほしいんです。

そんなに難しい事なのですか?
157 :
名無しさん@お腹いっぱい。
2012/10/17(水) 21:09:28.27
やりたいならやってみりゃいいじゃん
158 :
名無しさん@お腹いっぱい。
2012/10/17(水) 21:13:13.61
>>156
> 兎に角Linuxという名前がつかないスマホのOSがほしいんです。
なんで?
なんか知らんけどへんなとこ気にしすぎじゃね?
159 :
名無しさん@お腹いっぱい。
2012/10/17(水) 21:13:48.21
>兎に角Linuxという名前がつかないスマホのOS
WindowsとiOSがあるよ
オープンソースがいいっていうなら、iOSのコア部分はDarwinだから、Solarisでやるより簡単だよ
160 :
名無しさん@お腹いっぱい。
2012/10/17(水) 21:15:28.64
BlackBerryもあるし。
161 :
名無しさん@お腹いっぱい。
2012/10/17(水) 21:17:36.57
難しいというより誰もやりたがらない。
メリットがないから。
162 :
名無しさん@お腹いっぱい。
2012/10/17(水) 21:18:09.38
Darwin()
163 :
名無しさん@お腹いっぱい。
2012/10/17(水) 21:19:30.91
>>156
難しいけど、きっと君ならできるよ。
そのLinuxを憎む気持ちをバネにしてがんばれ。
164 :
名無しさん@お腹いっぱい。
2012/10/17(水) 21:21:46.89
Darwin()、って……
OpenIndianaと比べても遜色ないレベルの完成度だぞ、PureDarwin
165 :
名無しさん@お腹いっぱい。
2012/10/17(水) 21:22:16.57
>>164
ほっとけよ。
166 :
名無しさん@お腹いっぱい。
2012/10/17(水) 22:07:58.51
>>156
TRONあたりから、一から作れば?

はっきり言って、こことは関係ないから別の場所でやってね。
167 :
名無しさん@お腹いっぱい。
2012/10/17(水) 22:10:18.39
>>164
それならiOS使っとけという話もあるw
168 :
名無しさん@お腹いっぱい。
2012/10/17(水) 23:25:12.03
いやiOSではなくて、Androidのアプリケーションも使えるLinuxって名前がつかない物が必要なんです。
OpenSolarisのAndroidに使われてるLinux相当の物を利用したかったのですが、皆さんがおっしゃる様にそんなに難しいのですか?

メリットがないって、、、
169 :
名無しさん@お腹いっぱい。
2012/10/17(水) 23:42:02.77
>>168
実装する上で何がハードルとなるかわかる人でないと無理
それがわかっても実装できるわけでもない
できるとしても時間がかかりすぎるという問題もある

そもそもソフト開発経験あるの?
170 :
名無しさん@お腹いっぱい。
2012/10/17(水) 23:45:33.53
>>168
メリットないじゃん。
何かあるの?
171 :
名無しさん@お腹いっぱい。
2012/10/17(水) 23:46:10.87
同じ話繰り返してるだけだな。
そろそろこっちに移動してくれ。

THE他力本願
http://toro.2ch.net/test/read.cgi/unix/1030870657/
172 :
名無しさん@お腹いっぱい。
2012/10/17(水) 23:50:08.08
まだNetBSDあたりベースにした方が現実味あると思う。
スレチなのでここまでで。
173 :
名無しさん@お腹いっぱい。
2012/10/18(木) 01:08:55.51
>>168
>Androidのアプリケーションも使えるLinuxって名前がつかない物が必要なんです。
なぜそんなものが必要なのかまったく理解できん。

節々で「そんな難しいの?」みたいな調子で聞いてるけど
ユーザランド含めたOSを組み上げることのハードルも理解・解釈できないような人が
そんなOSを必要とするケースがマジでわからん。
174 :
名無しさん@お腹いっぱい。
2012/10/18(木) 01:17:40.07
難しいかどうか聞いてどうするんだろ。
自分でやる気はぜんぜんないみたいだけど、
どこかに発注するつもりなの?
175 :
名無しさん@お腹いっぱい。
2012/10/18(木) 01:41:01.72
発注なんてしないよ。
それを使って儲ける気もない。

ただ、とりあえず動く最初の段階は楽にクリアしたいなと思って。
それから色々と改良しながら改良する技術も身につけたいなと思ってて。

176 :
名無しさん@お腹いっぱい。
2012/10/18(木) 03:14:01.80
頑張れば東大だって行けるよね!んで何すればいい?
と訊いてまわる落ちこぼれ学生みたいな
177 :
名無しさん@お腹いっぱい。
2012/10/18(木) 05:26:37.58
何すればいい?って聞くなら一応向上心があるように見えるだろ。でもこれ
頑張って東大行きたいです、難しいですか? 可能ですか? ってしつこく聞いてるだけじゃないか
もっと酷いわ
178 :
名無しさん@お腹いっぱい。
2012/10/18(木) 06:11:32.76
ワロタw
179 :
名無しさん@お腹いっぱい。
2012/10/18(木) 07:26:24.14
もうほっとけ。
180 :
名無しさん@お腹いっぱい。
2012/10/18(木) 11:54:33.75
とりあえず東大に入る最初の段階は楽にクリアしたいなと思って。
それから色々と勉強しながら卒業できる学力も身につけたいなと思ってて。

こんなこと言ってたら病院を紹介されてもおかしくない。
181 :
名無しさん@お腹いっぱい。
2012/10/18(木) 19:05:59.99
まず、Androidの Linuxからの拡張部分を分離して、それをマイクロカーネルの
サーバーとしてどっかにくっつけるのがいいんじゃないか。
Chorusとか。もうないんだっけ?w ああ、Springがいいじゃんww
QNXとか Minix3とか。
182 :
名無しさん@お腹いっぱい。
2012/10/26(金) 10:38:04.37
Windows NT 6.xカーネルとか
183 :
名無しさん@お腹いっぱい。
2012/10/28(日) 11:26:41.18
>>181
Linuxは本当に嫌いなんです。
技術的な欠陥がカーネル部分で幾つもありそうだし、
なんか本当の所でだれもセキュリティやマシンがどう振る舞うのか等に興味や理解がなさそう。

フリーで皆でやってるわけだから、前の時代の開発に関わってきた人達が気がつかなかったバグは
ずーっとそのまま気が付かず放置されてそう。
そして新しく開発に加わった人達は前の時代の人達の作った物は
完璧だから確認しなくて良い的な感じでまた新たなバグが見つかる。

マルチコアの処理や並列処理さらにはマイクロカーネル的な要素を網羅したカーネルを作っておけば
ハードウェアのフラグメントにも今のLinuxよりは対応できるし、アプリケーション等が重要だから
Androidのアプリケーション等が使えたらなお良い。
あと、パソコンよりも携帯よりのソフトウェアに強いのがAndroidでしょ?

そういった理由で、LinuxカーネルじゃないAndroidのOSが必要。
184 :
名無しさん@お腹いっぱい。
2012/10/28(日) 11:29:37.53
>>183
> 技術的な欠陥がカーネル部分で幾つもありそうだし、
想像で言われてもな。
185 :
名無しさん@お腹いっぱい。
2012/10/28(日) 11:31:10.72
能書きはいいからさっさと作れよ。
186 :
名無しさん@お腹いっぱい。
2012/10/28(日) 11:49:10.11
まだ居たのかよ。
187 :
名無しさん@お腹いっぱい。
2012/10/28(日) 11:49:41.41
>>183
>技術的な欠陥がカーネル部分で幾つもありそうだし、
思い込みじゃね?
>なんか本当の所でだれもセキュリティやマシンがどう振る舞うのか等に興味や理解がなさそう。
思い込みじゃね?
>フリーで皆でやってるわけだから、前の時代の開発に関わってきた人達が気がつかなかったバグは
>ずーっとそのまま気が付かず放置されてそう。
思い込みじゃね?
>そして新しく開発に加わった人達は前の時代の人達の作った物は
>完璧だから確認しなくて良い的な感じでまた新たなバグが見つかる。
思い込みじゃね?
188 :
やっぱRBACだよね
2012/10/28(日) 13:20:19.69
なんにしても、Linux ユーザには「root loginを正しいと考えてる」輩が多いから困るんだよね。
あ、これはFreeBSD系も一緒か。

やっぱRBACで適切に「権限分離」した環境で暮らしたいよね。
とはいえ、ついつい自分の作業アカウントには「Primary Administrator」権限を付与しちゃうんだけどさ(笑)
189 :
吠鉱山 ◆STCMXN/JPY
2012/10/28(日) 14:33:29.46
pfexec
190 :
名無しさん@お腹いっぱい。
2012/10/28(日) 22:07:20.84
だったらWindows8使ってろ
191 :
名無しさん@お腹いっぱい。
2012/10/29(月) 03:31:25.87
頭がおかしいのはわかっていたが思っていた以上におかしかった
192 :
名無しさん@お腹いっぱい。
2012/10/29(月) 13:38:26.51
>>183
お前がそう思うんならそうなんだろう、お前ん中ではな(AA略
193 :
名無しさん@お腹いっぱい。
2012/10/29(月) 17:22:47.12
>>183
「...そう」って、言われてもなぁ。つーか、具体的な根拠もなくそんなこと
言っても、誰も相手してくれないだけかと。

それに、「Linux」を何に置き換えても、そのまま成立すると思うよ、その文章。
OpenSolarisでも Oracle Solarisでも、AIXでも HP-UXでも MacOS Xでも
FreeBSDでも NetBSDでも。程度の差はあるけど。

まあ、IBMや SGIの偉い人たちがさんざんいじって、直らなかった(受け入れ
られなかった)という感じはオレも持ってるけどね。
194 :
名無しさん@お腹いっぱい。
2012/10/29(月) 17:33:09.85
ここは何のスレなんだ?
195 :
名無しさん@お腹いっぱい。
2012/10/29(月) 17:59:11.73
チラシの裏ではないことだけは確かだ
196 :
名無しさん@お腹いっぱい。
2012/10/29(月) 18:02:11.08
「難しいですか」とか「嫌い」とかばっかで
具体的に何をするって話がぜんぜん出てこないね。
197 :
名無しさん@お腹いっぱい。
2012/10/29(月) 19:50:54.50
iPhon/iPad欲しいけど高くって買えません><
androidスマホではりんご持ちのリア充共に馬鹿にされちゃうんです;;
だからOIカーネルの、なんかすげぇOS乗っけたスマホでやつらを見下してやりたいんです

そんな電波を受信してみたんだけど合ってる?>>183
198 :
名無しさん@お腹いっぱい。
2012/10/29(月) 20:18:43.15
日本スルースキル協会から来ました
199 :
名無しさん@お腹いっぱい。
2012/10/29(月) 21:20:20.51
>>198
スルースキル持ってるなら、ここで出てきちゃダメだろw
もう一回鍛え直し!
200 :
名無しさん@お腹いっぱい。
2012/10/29(月) 23:39:34.88
洗練されたDDI/DKIとフレームワークで組み上げられた
Solarisのカーネルが美しいのは間違いない。
それにくらべてLinuxのフリーダムなこと。異論は認めない。
201 :
吠鉱山 ◆STCMXN/JPY
2012/10/30(火) 00:05:27.75
>>197
皆思ってても言わなかったのに…w
202 :
名無しさん@お腹いっぱい。
2012/10/30(火) 00:13:45.02
Plan9、Plan9を使う
203 :
名無しさん@お腹いっぱい。
2012/10/30(火) 21:26:47.35
204 :
名無しさん@お腹いっぱい。
2012/10/30(火) 22:19:22.27
OpenIndianaでAMD FXシリーズは安くコア数がほしい人以外おすすめしない
205 :
名無しさん@お腹いっぱい。
2012/11/01(木) 04:04:16.02
UNIXのようなマルチコア対応に優れたOSの利用者なら
安くコア数がほしくない人っていないんじゃね
まぁ裏の意味は分かる
FXはシングルコアあたりの性能がivy比で低いと言いたいのだろ
206 :
名無しさん@お腹いっぱい。
2012/11/01(木) 06:50:59.17
3DNowなどが削られ一部のバイナリが動かなかったり
AES-NIなどの新機能を認識しないという話があった
207 :
名無しさん@お腹いっぱい。
2012/11/03(土) 01:22:37.22
galaxyが切られたからな
オープンソースコミュニティ()のやつらには新機能の追加はムリか?w
208 :
名無しさん@お腹いっぱい。
2012/11/13(火) 01:46:11.96
151a7がきたぜー
209 :
名無しさん@お腹いっぱい。
2012/11/14(水) 16:47:35.06
210 :
名無しさん@お腹いっぱい。
2012/11/14(水) 19:51:49.69
なんかSolaris11と差が開いちゃったなぁ。
Solaris11ってもう公開されないのか?
211 :
名無しさん@お腹いっぱい。
2012/11/14(水) 21:12:28.25
そのうち公開すると幹部がぬかしてたけど絶賛放置中
あの襟損が積極的に公開するとは思えないし芽は無いだろう
212 :
名無しさん@お腹いっぱい。
2012/11/14(水) 23:56:04.15
>>209
ごめんちゃい
最近、OIいじってないことがばれましたね
213 :
名無しさん@お腹いっぱい。
2012/11/15(木) 00:03:59.57
一次情報も過去レスも確認しないままキターと騒ぐタイプだな
214 :
名無しさん@お腹いっぱい。
2012/11/17(土) 00:54:01.72
つまらんことにしつこい.. キモいな
215 :
名無しさん@お腹いっぱい。
2012/11/17(土) 07:21:01.84
複数OIマシンを使って1つの冗長化されたストレージ(iscsiとかnfsとか)に見せるクラスタみたいなことってできる?
216 :
名無しさん@お腹いっぱい。
2012/11/17(土) 12:53:41.20
Solaris 11.1のFedFS?
http://docs.oracle.com/cd/E37932_01/html/E36745/rfsadmin-20.html

これなんなん?ドキュメントもほとんどないし。
なんかいい資料教えてくれよ。
217 :
名無しさん@お腹いっぱい。
2012/11/17(土) 20:23:04.34
情報少なすぎて何これ状態だな
DRBDみたいな物はないんだろうか
218 :
名無しさん@お腹いっぱい。
2012/11/18(日) 09:11:25.82
複数のNFSサーバが提供するNFSを統一された名前付けで利用しやすくするだけ
219 :
名無しさん@お腹いっぱい。
2012/11/18(日) 18:45:38.66
pNFS (NFS v4.1) はどれくらい使えるんだろう?
220 :
名無しさん@お腹いっぱい。
2012/11/18(日) 21:21:39.40
ZFSでraidz2や何やで堅牢にしていってもマシンごと死んだら結局意味ないよね
221 :
名無しさん@お腹いっぱい。
2012/11/18(日) 21:36:58.51
家ごとなくなったりな
222 :
名無しさん@お腹いっぱい。
2012/11/18(日) 21:42:37.20
ま、そんな時には zfs send, recv で。もしくは NetApp で snap mirror とか
223 :
名無しさん@お腹いっぱい。
2012/11/18(日) 21:59:06.32
マシン直してzfs import だろ。
224 :
名無しさん@お腹いっぱい。
2012/11/18(日) 23:00:18.39
外付けだったら他のマシンに繋ぐだけでいいからな
RAID筐体ごと死んだ時は復旧面倒
225 :
名無しさん@お腹いっぱい。
2012/11/18(日) 23:05:47.07
定期バックアップが頻繁にやりやすいだけで、置いてるvmやらdbやらの動作状態と直近データは全損で手動復旧作業必須だからな>zfs send
残念ながらdrbdで常時レプリケーションしてるLinuxには数段劣る
226 :
名無しさん@お腹いっぱい。
2012/11/18(日) 23:15:45.30
定期バックアップとレプリケーションをくらべる男の人って
227 :
名無しさん@お腹いっぱい。
2012/11/18(日) 23:24:33.54
drbdとzfsの比較って…という感じでしたが
228 :
名無しさん@お腹いっぱい。
2012/11/18(日) 23:32:33.33
229 :
名無しさん@お腹いっぱい。
2012/11/18(日) 23:38:06.72
都市ごとなくなったり
230 :
やっぱRBACだよね
2012/11/19(月) 00:03:14.72
>>225,227
とはいえ、drbdはチューニングが面倒。
特にHartbeatと共存させている場合なんか、すぐにSplit Brainが起き易い。
ついでに言うと、Ethを複数束ねてもLinux bondingだと「速度倍増」が望めないというのも痛い。
drbd相当の機能がSolarisに実装されると嬉しいんだけどねぇ。
231 :
名無しさん@お腹いっぱい。
2012/11/19(月) 00:04:25.49
うあ、Name欄、直すの忘れてた orz.
232 :
名無しさん@お腹いっぱい。
2012/11/19(月) 00:15:50.42
よくわからんのだけど
LUの実体が何かなんて別に気にしなくても良いと思うのでiSCSIターゲット箱を複数用意して専用鯖で束ねるってのはダメなの?
これなら鯖死んでもデータはそこに無いから新鯖で束ね直せば良いだけでいけやしないかな。
233 :
名無しさん@お腹いっぱい。
2012/11/19(月) 00:19:55.47
意図はわかるし多少前進してるが、それはHDDがeth経由になって自由度が上がるだけで、上で言われてるような、
いずれかのストレージマシンが死んでもクライアントからは隠蔽されるような仕組みがいるんじゃまいか
234 :
名無しさん@お腹いっぱい。
2012/11/19(月) 02:28:21.53
別に家鯖に高可用性まで求めてないからマシン死ぬのは別に構わん、と思ってたが
一度電源トラブルでPCに繋がってるHDD全部飛ばして以降別マシンにsend/recvするようになったw
235 :
名無しさん@お腹いっぱい。
2012/11/19(月) 02:36:25.66
ちょっとまて。
zfsは電源トラブルなんかじゃデータ飛ばないだろ?
燃えたとか?
236 :
名無しさん@お腹いっぱい。
2012/11/19(月) 02:38:49.62
>>235
冗談で言ってるのか?
HDDが全台起動しない状況で、zfsとか関係ないだろう。
237 :
名無しさん@お腹いっぱい。
2012/11/19(月) 07:31:45.82
電源トラブル=停電 程度にしか思ってないんだろう
238 :
234
2012/11/22(木) 22:54:42.13
>>235
アレイ構成してるHDDが全部同時に逝ったのよ。過電流かなんかで基板が逝った。
239 :
名無しさん@お腹いっぱい。
2012/12/11(火) 06:47:25.79
ふとlastコマンドでログイン履歴を追っていたら、作成した覚えのないjackユーザでログインした形跡があって
今、青ざめています。
当該oiマシンは、ネットからすぐに外し、slocate jackしたら、
/var/cache/gdm/jack
/var/cache/gdm/jack/dmrc
が引っ掛かってきました
ちなみにls -la /var/cache/gdm/jack/dmrcすると
-rw-r--r-- 1 65432 staff 24 201*-**-** 20:04 /var/cache/gdm/jack/dmrc
となっていて、65432がjackユーザらしいのですが、
/etc/passwdファイルにはjackユーザは存在しません
240 :
名無しさん@お腹いっぱい。
2012/12/11(火) 07:07:41.77
oiオワタ
241 :
名無しさん@お腹いっぱい。
2012/12/11(火) 11:09:52.09
>239
| OpenSolaris Project: Indiana の Get the OpenSolaris..
| ...のぺージからダウンロードして起動してみる。..

| Username "jack"、Password "jack" でログイン。
242 :
名無しさん@お腹いっぱい。
2012/12/11(火) 11:11:19.22
243 :
239
2012/12/11(火) 14:06:39.55
え、えーと...
てへぺろ(ゝω・)
...
244 :
名無しさん@お腹いっぱい。
2012/12/12(水) 00:04:34.60
つまり・・・どゆこと?
245 :
名無しさん@お腹いっぱい。
2012/12/12(水) 10:20:23.60
>>239>>242の中の人だった、ってこと?
246 :
名無しさん@お腹いっぱい。
2012/12/12(水) 11:07:35.74
jackはいつも君のそばにいるよ、そゆこと。
247 :
名無しさん@お腹いっぱい。
2012/12/12(水) 20:16:09.52
jackぱねえ。スパーハカーじゃん。
248 :
名無しさん@お腹いっぱい。
2012/12/12(水) 22:41:28.97
/usr/bill が作られてたりして
249 :
名無しさん@お腹いっぱい。
2012/12/12(水) 23:34:52.11
/etc/jp1よりはマシだろ?
250 :
名無しさん@お腹いっぱい。
2012/12/13(木) 16:54:53.72
そういえば、「お名前」のVPSでSolaris動かした人って居る?
http://www.onamae-server.com/vps/spec/
251 :
名無しさん@お腹いっぱい。
2012/12/13(木) 16:59:24.18
君が一番乗りだ。
252 :
名無しさん@お腹いっぱい。
2012/12/14(金) 16:11:36.12
>>247
温泉墓
253 :
名無しさん@お腹いっぱい。
2013/01/26(土) 16:11:07.78
あふぉやったかなぁ・・・
買ってきてすぐのHDD(WesternDegital製 1TB SATA3)を、フォーマットも何もせんでPCに繋いで、Solaris11をDVDからインストール開始。
一応出来そうなんで進めてみたら、インストール中のフォーマット作業で、もう10時間以上経っている・・・

前もってフォーマットしておくべきだったのだろうか?それともPC自体がぶっこわれだろうか。それともSolaris11が(ry
PCはCore2Duoでメモリ4G。さすがに10時間ねぇだろうと思うんだけど・・・しかもほとんど進んでない気配。

HDDもCPU周辺も全く熱持ってなくて、ほんとに作業してんのか?と思ってしまうレベル。

なんなんだろう。
254 :
名無しさん@お腹いっぱい。
2013/01/26(土) 18:27:59.02
>>253
AFTまわりで何かあるのかも?
255 :
名無しさん@お腹いっぱい。
2013/01/26(土) 20:03:13.76
そもそもWD緑には、低速病という持病が発症することがってのは置いといて、
「インストール中のフォーマット作業」って何? newfs してるって事?
256 :
名無しさん@お腹いっぱい。
2013/01/26(土) 23:10:17.13
環境固有のトラブルはわからんわ
257 :
名無しさん@お腹いっぱい。
2013/01/27(日) 08:58:17.34
>>253
ディスク表面のサーフェースチェックを実行しているとか?
もしそうなら記録媒体の機能確認なので飛ばしても影響はないよ。
258 :
名無しさん@お腹いっぱい。
2013/01/27(日) 15:29:26.43
DVDドライブのIFでトラブってて超低速で動いてたらそれくらい時間がかかっても不思議じゃ無い。
259 :
名無しさん@お腹いっぱい。
2013/01/27(日) 15:37:47.41
oiって4TBのHDDでも認識大丈夫?
本場のZFSに初めて手を出そうと思うんだけど。
260 :
名無しさん@お腹いっぱい。
2013/01/27(日) 15:43:09.85
OpenIndianaじゃ本場のZFSにならないか。
Solaris取ってこよ。
261 :
名無しさん@お腹いっぱい。
2013/01/27(日) 16:03:15.05
>>259
4TBは試したことないが3TBは大丈夫だった
ちゃんと4KBセクターになってる(特に指定はしてない)
あ、起動ディスクとしては試してない
262 :
名無しさん@お腹いっぱい。
2013/01/31(木) 15:10:14.74
oiは最新じゃないだけで一応本場のZFSなんじゃない?
263 :
名無しさん@お腹いっぱい。
2013/01/31(木) 23:10:02.99
SPARC用のIllumosベースのディストリビューションOpenSXCEが出たよ!
http://www.opensxce.org
264 :
名無しさん@お腹いっぱい。
2013/01/31(木) 23:37:09.58
>>259,261
AFTのHDD使う場合は気を付けて。
/kernel/drv/sd.confに設定を行ってからzpool createを行わないと、
アラインメントがずれた状態になる。
設定方法の詳細はここ。
http://wiki.illumos.org/display/illumos/ZFS+and+Advanced+Format+disks
アラインメントがずれてるかどうかの確認はzdbコマンドを実行すればashiftの値でわかる。
ashift=12ならばアラインメントは正しい。

>>260,262
Oracle SolarisのZFSはバージョン33
OpenInianaやFreeBSDのZFSはバージョン28
265 :
名無しさん@お腹いっぱい。
2013/02/01(金) 09:11:32.69
OpenillmosのZFSは独自拡張初めてんじゃなかったっけ?feature@〜って形で。
OpenIndianaだと151a5だったかa6辺りで取り込まれてたと思った。
こいつを有効にすると、zpoolのバージョンは5000とかになるはず。

Oracleが最新のZFSソースの公開やめたからしょうが無いんだけれど。

で、これを元にしてるFreeBSDも確か9-stable辺りにはもう取り込まれてような。
試したことは無いけど、独自拡張を有効にすると多分本家Solarisには
そのままimport出来ないんじゃないかなー。
266 :
吠鉱山 ◆STCMXN/JPY
2013/02/01(金) 12:20:06.66
sparc版良いけど、GUIとか対応してるんだろうか
267 :
名無しさん@お腹いっぱい。
2013/02/01(金) 19:19:23.76
>>264
自分がやった時は何もしなくてもちゃんとashift=12になってた。
ディスクによるんだろうな。確認は必要だな。
268 :
名無しさん@お腹いっぱい。
2013/02/21(木) 18:57:18.67
インストールするときのキーボードはどちらを選べばいいの?
269 :
268
2013/02/21(木) 18:58:10.54
openindianaです。
270 :
268
2013/02/21(木) 20:37:43.02
23のJapaneseが正解みたいです。
22のJapanese-Type6では半角全角で記号が入力されます。

157aでは日本語入力ができないのですが、何かしないといけないとかありますか?
271 :
268
2013/02/21(木) 21:12:01.42
ネットで検索したらでてきました。
iBusをいれればいいらしい。
272 :
268
2013/02/21(木) 22:04:18.19
いきなりrootパスワードの変更が必要みたいです。
コンソールでsuをする必要があるみたいです。
273 :
268
2013/02/21(木) 22:05:48.98
iBusとAnthyをインストールしましたが、半角全角が効きません。使い勝手がちょっと悪いです。
何か設定が必要でしょうか?
274 :
名無しさん@お腹いっぱい。
2013/02/21(木) 22:07:18.92
君は向いてないんだと思う
275 :
名無しさん@お腹いっぱい。
2013/02/21(木) 22:10:25.59
苦笑
276 :
268
2013/02/21(木) 22:27:40.92
よく分かりませんが、日本語入力が不安定みたいです。
277 :
名無しさん@お腹いっぱい。
2013/02/21(木) 23:03:21.95
UbuntuかMac OSXあたりがあっていると思う。
278 :
名無しさん@お腹いっぱい。
2013/02/21(木) 23:06:36.25
そのうちになれる。>268
279 :
吠鉱山 ◆STCMXN/JPY
2013/02/22(金) 00:31:44.62
なんだこのスレ
280 :
名無しさん@お腹いっぱい。
2013/02/22(金) 06:31:12.65
Solarisは鯖専用OS。日本語入力なんてしません。
キーボードも英語キーボード。というか、リモート専用なのでキーボードも付けません。
281 :
名無しさん@お腹いっぱい。
2013/02/22(金) 12:22:05.83
自作機用のマザーを流用するとキーボード付けないと何かと面倒なんだよね…
282 :
名無しさん@お腹いっぱい。
2013/02/22(金) 14:29:35.01
いきなり268に荒らされてた
283 :
名無しさん@お腹いっぱい。
2013/02/23(土) 10:25:02.73
>>281
KBDなしでもError出ない設定ができるものが多いと思うが
284 :
名無しさん@お腹いっぱい。
2013/02/23(土) 10:43:14.95
>>283
ハードウェアレベルのリモート管理が無いからって意味じゃね?
ブート段階から弄ることになると色々めんどくさい。
285 :
名無しさん@お腹いっぱい。
2013/02/23(土) 13:48:36.85
OpenIndianaのバージョンアップが止まってるので、
OmniOSへ移行しようとテストしてるけどtopとか結構パッケージが絞られてちょっと使いづらい。
最悪自前でパッケージ作れば良いんだろうけど、微妙な差があるのが・・・
286 :
名無しさん@お腹いっぱい。
2013/03/03(日) 21:14:59.80
久しぶりにsshログインして、zpool statusを見たら、
こんな表示が...

status: The pool is formatted using an older on-disk format. The pool can
still be used, but some features are unavailable.
action: Upgrade the pool using 'zpool upgrade'. Once this is done, the
pool will no longer be accessible on older software versions.

>Once this is done, the pool will no longer be accessible on older software versions.
が怖くて、zpool upgradeする決心がつきません...
287 :
名無しさん@お腹いっぱい。
2013/03/03(日) 21:33:33.47
新機能不要ならupgradeも不要だから放ってある
288 :
吠鉱山 ◆STCMXN/JPY
2013/03/03(日) 21:56:13.23
同じく。
289 :
名無しさん@お腹いっぱい。
2013/03/03(日) 22:46:26.79
illumos系のZFS使ってる所は、もうそのVer使い出してるから、
純正Solaris使わないなら、そこまで気にすることも無いかと。
少なくともFreeBSDは9-stableに修正入った。
なのでBSDベースのNASも9.2-RELEASEベースから新バージョン使い出す事になるかと。

他は調べてないけど、Oracleがsource非公開にしちまってるから、
結局、Solarisとillumosの2系統に分かれちゃうのは、しょうが無いんだよな。
290 :
名無しさん@お腹いっぱい。
2013/03/04(月) 14:18:20.22
ORACLEってJavaの問題にしても、本当に迷惑かけるの得意だよな。
291 :
名無しさん@お腹いっぱい。
2013/03/04(月) 21:27:54.73
>>286>>289
ZFS on Linuxでも最近のrcからはZFS Feature Flagsに移行してるな。

>>287>>288
zpool status -xでも毎回出てくるから地味に迷惑だったりする。
292 :
名無しさん@お腹いっぱい。
2013/03/04(月) 22:15:39.69
大きなお世話の警告がイヤならソースいじって出なくしたら?
293 :
名無しさん@お腹いっぱい。
2013/03/05(火) 23:34:27.95
a9マダー?
294 :
名無しさん@お腹いっぱい。
2013/03/06(水) 19:56:32.12
295 :
名無しさん@お腹いっぱい。
2013/03/06(水) 23:01:43.53
OpenSolaris の ARM ポートはどっかにあったよね
296 :
名無しさん@お腹いっぱい。
2013/03/07(木) 08:43:40.78
ZFSのコンパクト版とか含まれてたな
297 :
名無しさん@お腹いっぱい。
2013/03/07(木) 09:04:56.70
NECでやったやつでしょ? ベースには使ってんじゃない?
298 :
名無しさん@お腹いっぱい。
2013/03/08(金) 00:25:31.98
zfsのメタデータ(DDT含む)を別のデバイスプールに置くってできるんだっけ?
なんかの思い違いかな。検索ワードが分からん・・
299 :
名無しさん@お腹いっぱい。
2013/03/08(金) 13:48:22.16
>>298
無理。

ZILとかと勘違いしてるんじゃね?
300 :
名無しさん@お腹いっぱい。
2013/03/17(日) 17:09:36.12
opensolaris.org が閉鎖かぁ。
301 :
名無しさん@お腹いっぱい。
2013/03/17(日) 18:17:09.70
終わりの始まり?
302 :
名無しさん@お腹いっぱい。
2013/03/18(月) 04:33:09.17
終わりの終わり
303 :
名無しさん@お腹いっぱい。
2013/03/18(月) 08:08:03.43
サンが身売りしたときだろうなあ。>終わりの始まり
304 :
名無しさん@お腹いっぱい。
2013/03/18(月) 19:00:03.69
あら。もう繋がらないぞ。3/24じゃなかったのか。
305 :
名無しさん@お腹いっぱい。
2013/03/18(月) 20:44:58.91
なんで良い技術を作り出した会社が長持ちしないんだろうね
いつも不思議に思うところだ。
306 :
名無しさん@お腹いっぱい。
2013/03/18(月) 21:06:34.87
不治痛にSunが買える甲斐性があれば、まだOpenSolarisは生きていただろうか。
307 :
名無しさん@お腹いっぱい。
2013/03/18(月) 21:07:07.68
よい技術を次々作り出せる会社というのは
悪く言えば幼稚だがタレントのある人種が集まるところだからだろう
別の言い方をすれば商売に頓着しないということだ
308 :
名無しさん@お腹いっぱい。
2013/03/18(月) 22:03:44.45
TVで言えば、プラズマパネル作っていた会社が市場原理に負けて撤退したようなもの。
309 :
名無しさん@お腹いっぱい。
2013/03/19(火) 01:12:25.01
>>306
「サポートできる人的リソースが無い」って理由で早々に捨てられるだろうね。
確か、未だにx86/64系はサポート外じゃなかったっけ>FJ
310 :
名無しさん@お腹いっぱい。
2013/03/19(火) 10:09:41.94
不治痛からも旧sunのx64鯖買えるよ
PC鯖のprimeなんちゃらではsolarisサポートしてないけど
中の人のインタビュー記事ではlinux押しだった
311 :
名無しさん@お腹いっぱい。
2013/03/19(火) 10:14:45.47
あーごめん>>310は嘘
solaris11でもSolaris Premier Subscriptionに入れるモデルがあるね
詳しくはhclをどうぞ
312 :
名無しさん@お腹いっぱい。
2013/03/19(火) 10:57:10.21
>>307
> 悪く言えば幼稚だがタレントのある人種が集まるところだからだろう

幼稚なのはおまえだ。
313 :
吠鉱山 ◆STCMXN/JPY
2013/03/19(火) 11:15:00.67
技術馬鹿になっちゃうんだろうね。
314 :
名無しさん@お腹いっぱい。
2013/03/19(火) 13:31:05.44
>>300
ソースツリーも取れなくなるの?
315 :
名無しさん@お腹いっぱい。
2013/03/19(火) 13:41:58.72
Sunみたいな会社には技術バカをうまく扱える経営陣が必要で
目の前のカネしか見えない事務畑の勢力が強くなると滅亡する

マクネリがバトンタッチした頃にはもう終わってたな
316 :
名無しさん@お腹いっぱい。
2013/03/19(火) 13:44:16.68
>>314
http://solaris.java.net
ただし主要なものだけ
317 :
名無しさん@お腹いっぱい。
2013/03/19(火) 15:07:21.23
自社製品どうしじゃなきゃ接続できなかった囲込みジョーシキの業界に
Sunがオープンという単語で殴込みかけて、つい先日まで存続してたこと自体が
ある意味奇跡なんだよ。
オープンソースじゃなきゃオープンじゃないとか言ってるエセオープン企業だけが
結局残った。つまらん。
318 :
名無しさん@お腹いっぱい。
2013/03/19(火) 18:33:40.04
Canonical「Sunは四天王最弱……」
319 :
名無しさん@お腹いっぱい。
2013/03/19(火) 21:57:27.71
>>318
ちょっとマテw
残りの3人を言って味噌。
320 :
名無しさん@お腹いっぱい。
2013/03/20(水) 01:01:57.67
Redhat、FSF、Canonicalか?
321 :
名無しさん@お腹いっぱい。
2013/03/20(水) 01:38:21.13
FSFは非営利だから、そこに入れるならMozilla Corpかな(Mozilla財団のほうではなく)
322 :
名無しさん@お腹いっぱい。
2013/03/26(火) 17:22:52.23
OpenIndiana入れてると、wake on lanで起動できなくなったりします?
同機種PCにWindows入れてるのは起動できてるんですが。
323 :
名無しさん@お腹いっぱい。
2013/03/26(火) 21:08:04.69
>>322
WoLの為には、確かシャットダウン時にそのための処理を
NICに設定しなきゃならなくて、
そいつをやるのはドライバの仕事だった気が。
ドライバがWoLに対応してないと、その設定が出来ずに、
WoL出来ないはず。
324 :
名無しさん@お腹いっぱい。
2013/03/26(火) 21:10:31.58
IPMIから起こしてやるのが一番シンプルだね
325 :
名無しさん@お腹いっぱい。
2013/03/30(土) 00:27:52.62
日本語入力できた。安定している。
ibusがいいみたい。
326 :
名無しさん@お腹いっぱい。
2013/03/30(土) 00:52:11.09
前は.profileに記述する方法をしていたのが悪かった見たいです。
ibusを自動起動するように設定したら、問題無く使えます。
Mageiaより完成度が高いです。
327 :
名無しさん@お腹いっぱい。
2013/03/30(土) 00:58:01.07
V2Cより記念カキコ。
328 :
名無しさん@お腹いっぱい。
2013/04/29(月) 11:35:02.64
         ,, _
       /     ` 、
      /  (_ノL_)  ヽ
      /   ´・  ・`  l    Solarisは死んだんだ
     (l     し    l)    いくら呼んでも帰っては来ないんだ
.     l    __   l    もうあの時間は終わって、君も人生と向き合う時なんだ
      > 、 _      ィ
     /      ̄   ヽ
     / |         iヽ
    |\|         |/|
    | ||/\/\/\/| |
329 :
名無しさん@お腹いっぱい。
2013/04/29(月) 21:59:15.55
どっこい生きてる鯖の中
330 :
名無しさん@お腹いっぱい。
2013/04/30(火) 01:11:31.54
         ,, _
       /     ` 、
      /  (_ノL_)  ヽ
      /   ´・  ・`  l    OpenIndianaは復活するんだ。
     (l     し    l)    悲しみの弔鐘はもう鳴り止んだ。
.     l    __   l    君は輝ける人生の、その一歩を、再び踏み出す時が来たんだ。
      > 、 _      ィ
     /      ̄   ヽ
     / |         iヽ
    |\|         |/|
    | ||/\/\/\/| |
331 :
名無しさん@お腹いっぱい。
2013/05/12(日) 19:00:17.42
Open-Soralis初心者だけど質問ある?
何でも聞け。
知らないこと以外はたいてい知っている。
332 :
名無しさん@お腹いっぱい。
2013/05/12(日) 19:05:20.36
突っ込めない箇所がない
333 :
名無しさん@お腹いっぱい。
2013/05/12(日) 19:50:50.47
不良セクタ出たHDDを一時的にzfsで使用する必要がある場合、
セクタの登録なんかはどうすればいいのかな?
若しくはzpoolでエラーカウントが増えても切り離さないような設定(?)とか
334 :
名無しさん@お腹いっぱい。
2013/05/12(日) 22:58:28.35
SATAは自動代替だろ
代替領域使い果たしたHDDは捨てる
335 :
名無しさん@お腹いっぱい。
2013/05/12(日) 23:05:09.38
zpool っても色々だが、少なくとも raid-z 系ならそう簡単に切り離されたりしない
死んでる部分が重なってなければ、普通に読めたりするし、死んでれば死んでるなりに
取り敢えずは動く

とは言え、下手の考え休むに似たりと言うか、とっとと交換すべき
336 :
名無しさん@お腹いっぱい。
2013/05/13(月) 00:27:12.64
代替不能になったHDDを再フォーマットして問題なく使えてる!
オレってプロだよな!とドヤ顔してるバカってたまにいるよねw
337 :
名無しさん@お腹いっぱい。
2013/05/13(月) 02:18:50.10
一時的に使用する必要がある場合と断ってるでしょ
人がいないからって空想で相手作っちゃだめよー
>>335
マシン環境によっては簡単に切り離されるよ。
mirror系ばかり使ってるのでraid-z系だと挙動が違うのかもしれないが、
タイムアウトするのか1カ所でも出るとカウント急増してdegrade化するHBAがある。
エラー原因にも寄るようだがカウントは1〜3程度で微増する場合と、
50〜3桁以上に急増して切り離される場合に2極化してる気がするな。
338 :
名無しさん@お腹いっぱい。
2013/05/13(月) 02:25:54.72
readonlyでimportしてもダメなんだろうか?
339 :
名無しさん@お腹いっぱい。
2013/05/13(月) 03:37:37.85
SCSIならdefect list登録
SATAなら代替処理できずエラー出た時点で交換

アホな工夫を考えるよりもさっさと交換
予備くらい買っとけと

>>337
エラー原因によってエラーの増え方が違うってそりゃ当たり前じゃないかと
HBA依存ってどんなの?
340 :
名無しさん@お腹いっぱい。
2013/05/13(月) 03:41:35.77
>>338
使用する必要があると書いてんだからエラー出て外してあったヤツを
完全に死んだHDDの代わりに間に合わせで使いたいってことだろ?

だったらimportだのreadonlyは関係ない
341 :
名無しさん@お腹いっぱい。
2013/05/13(月) 05:09:47.48
とりあえず、Bad Sectorが出たSATAのHDDを一時的とはいえ使用する場合に必要なのは


 覚 悟


だけじゃないか?

>339
安いNASでもS.M.A.R.T.情報を監視してて、閾値を超えると即エラー返して来るヤツもあるけどね。
342 :
名無しさん@お腹いっぱい。
2013/05/13(月) 06:10:03.52
>>341
監視はHBAじゃなくてドライバやデーモンでやってるヤツじゃね?
そうだとすればHBA依存じゃなくてシステム依存だろ
343 :
名無しさん@お腹いっぱい。
2013/05/13(月) 06:36:04.10
そういう時は迷わず ufsdump | ufsrestore でしょ
それ以外の余計なことは考えない方がいい
344 :
名無しさん@お腹いっぱい。
2013/05/13(月) 06:58:02.42
ZFSの絡んだ話題にufsdump/ufsrestore持ち出すとかw
345 :
名無しさん@お腹いっぱい。
2013/05/14(火) 01:32:42.91
>>339
今時のzfs配下でもdefect list 使えるのか ! じゃあanalyzeかけるだけか
しかしなんともローテク感溢れるのでSATAやSSDでも使えるzfsレイヤから指定する方法とかもほしいなそれは
不良セクタに当たった場合に代替だけしてdegradeに落ちなければいいんだがどういう閾値なんだろうか

HBAによってはシングルドライブでLD設定してるとドライブエラー生じた際に
自動リトライかなにかするらしくsolarisから見てタイムアウトして一撃degradeとかいろいろ。
主にファームやドライバが腐ってる訳だがsolarisだしな。変な気をまわさない低機能HBA使えってのは頷ける。

>>340
exactly.
全数載せる実験で在庫HDDが足りんとかその程度の用途なのでデータの安全とか運用とか関係ない話題なんだが
なぜかSATAで長期運用中のストレージのディスク交換だと確信している方々が

>>343
だ、だまされないぞー(棒)
346 :
名無しさん@お腹いっぱい。
2013/05/14(火) 09:54:00.44
>>345
いや、エラー出たとか、返事かえってこねーディスク
をとっととディスって何が悪いってのが、FS側の意見。


> HBAによってはシングルドライブでLD設定してるとドライブエラー生じた際に自動リトライかなにかするらしく
こんな事やってる”HBA”はシラネ。
普通のSATAなら、HDD自身が諦めるまで、返事かえってこねー事はあるが、
こいつはHBA関係ねぇ。
とっととエラー返すHDD使えってー事だ。
347 :
名無しさん@お腹いっぱい。
2013/05/14(火) 13:45:10.30
>>345
ファイルシステムやディスクドライバで代替ブロックを確保・割当すんのと
ディスク内部にある代替処理とはレイヤが全然違う

SCSI HDDにはdefect list管理があるからまだいじる余地はあるけど
SATA HDDなら普通はひっそり自動代替されて回復不能エラー報告時には
もう予備領域を使い果たしてたりするから管理もクソも交換しかない

LDってRAIDコントローラのlogical disk/driveのつもりか?
そういうシッタカくさい略記すんなよ
ディスク状態監視まで備えてたりする高機能コントローラ持ち出して
HBAによってはとかアホにしか見えない

あと背景説明しなかったくせに意図しないレスでファビョるのはカコワルイ
黙ってgrown defect list登録やっとけ
348 :
名無しさん@お腹いっぱい。
2013/05/14(火) 13:54:29.25
全数載せるだか何だか知らんけど、壊れたディスクでディスクが壊れた場合以外の実験なんて意味有るのかねぇ?
349 :
名無しさん@お腹いっぱい。
2013/05/14(火) 15:33:47.08
> ファイルシステムやディスクドライバで代替ブロックを確保・割当すんのと
> ディスク内部にある代替処理とはレイヤが全然違う

そんなバカな..

> SCSI HDDにはdefect list管理があるからまだいじる余地はあるけど

そんなバカな..

> SATA HDDなら普通はひっそり自動代替されて回復不能エラー報告時には
> もう予備領域を使い果たしてたりするから管理もクソも交換しかない

そんなバカな..www
そんなんもう何十年も前から SCSIも ATA(IDE)もいっしょだつーのwwww
ディフェクト管理で退避だとかデバイス側の SCSIコントローラーと
HDD間が ESDIで接続されてたような頃の話だぞ。

> ディスク状態監視まで備えてたりする高機能コントローラ持ち出して
> HBAによってはとかアホにしか見えない

そんなバカな..k.k
350 :
名無しさん@お腹いっぱい。
2013/05/14(火) 17:51:03.48
バカは帰っていいよw
351 :
名無しさん@お腹いっぱい。
2013/05/14(火) 20:22:55.03
そういやエンプラ用途のディスクには自動代替処理なんて無いって聞いたな
エラー出たらコマンド打って明示しないとやってくれないとか…
352 :
名無しさん@お腹いっぱい。
2013/05/15(水) 09:14:41.89
その手の物は、そもそもRAIDで使われること前提だし。
HDDはリカバリなんかしなくて良いから、読めないなら読めないとさっさと答えろぼけ、
リカバリ?そんなもんこっちでやるから、早く返事しろ、アホ!仕事貯まってんだよ!
ってのが、業務用RAIDカードの仕様だからな。

で、結果が酷くなったら、HDD切り離し。
353 :
名無しさん@お腹いっぱい。
2013/05/15(水) 23:10:10.94
>>352
一番困るのが、何度もリトライに行って返ってこないパターンだからな
とっととエラーで返して欲しいもんだ
354 :
名無しさん@お腹いっぱい。
2013/05/15(水) 23:28:59.19
ん?ってことはもしかしてWDのRedってそういう仕様なのかな。
あれSATAだけどNAS用でRAID前提のディスクだよね。
355 :
名無しさん@お腹いっぱい。
2013/05/16(木) 08:47:20.86
>>354
TLER/CCTL/ERCとか言われてる奴だな。(メーカーによって呼び方がまちまち)
一応リトライはするけど、設定された時間で終わらなければ、Timeoutして、ホストに通知する機能。

現状だと、各社のニアライン向けは全部、コンシューマー向けだと
WDのRedとVelociRaptor、HGST/東芝の全部に付いてる。WDの前記以外と
Seagateのコンシューマー向けは無し。
ただ、東芝はこの先どうなるかは不定、現状はまだHGST時代のファーム使ってるから使えるけど、
独自に作り出すと、どうなるか分からん。

ちなみに、HGST/東芝のは設定を記憶しないので、電源入れる度に再設定が必要。
Redは使ったこと無いけど、多分一緒な気がする。
(機能が有効のままRAID以外で使われると、場合によっては問題になる場合が。)

RAIDカードスレで、HGSTを薦められてたのはこの辺りも関係してる。
356 :
名無しさん@お腹いっぱい。
2013/05/16(木) 23:00:17.42
タイムアウトってHBAが決めるんじゃないの?
357 :
名無しさん@お腹いっぱい。
2013/05/16(木) 23:17:15.38
設定可能項目が標準実装ならクラッシュディスクのddとかのtipにふつーにあると思う。
たぶん変更不可だったり、そもそもそんな設定自体が存在しなかったりそんな話かと。
358 :
名無しさん@お腹いっぱい。
2013/05/16(木) 23:22:39.44
>>346
どこのFSか知らんがZFSはエラー出たからといってそう簡単には分離しないポリシーだぞ
>>356
上で出てるけど、HDDが諦めてエラー返してきてもHBAがリトライしちゃう場合がある
逆パターンとしてディスクが長時間無応答になったのでリセット発行→ループ でスピンアップ繰り返しとかも
Disk側がやってる場合と区別付きにくいが
359 :
名無しさん@お腹いっぱい。
2013/05/17(金) 16:39:01.30
本家の方見限ってこちらに乗せ変えたのですが、sjtoeucと打つとそんなコマンド無いって言われて、
パッケージ入れ忘れかと思い探して見たけどSJISもEUCも無いみたいですね・・・
日本語対応はUTFだけのようですが何か理由があるのでしょうか?
SJISやEUCのサポートは復活しますか?
360 :
名無しさん@お腹いっぱい。
2013/05/18(土) 10:30:27.90
Solaris10のマニュアル見ると SUNWjfpuとあるから、それに入ってるかと。
JLE(SunOS 4.x時代(!)の日本語環境ね)の互換性保持のためのものだから、
もういいんでないw?
要るんならシェルスクリプトで iconvのラッパー書いとけば。

iconv -f SJIS -t EUC-JP
361 :
名無しさん@お腹いっぱい。
2013/05/18(土) 10:54:48.70
本家の方見限ってこちらに乗せ変えたのですが、
gcc -static hoge.cと打つとlibc.aが無いって言われて、
パッケージ入れ忘れかと思い探して見たけど無いみたいですね・・・
ライブラリ対応はsharedだけのようですが何か理由があるのでしょうか?
libc.aのサポートは復活しますか?
362 :
名無しさん@お腹いっぱい。
2013/05/18(土) 17:42:11.85
ネタかいww
363 :
名無しさん@お腹いっぱい。
2013/05/20(月) 19:42:18.91
oiでZFS mirrorな自宅ファイルサーバを立ててから、およそ一年経ちましたが
HDDの価格も落ち着いてきたので、HDD3本構成に移ろうかと思います。

移行するためには、現在稼働中のHDDと同容量の物を、2本追加し、
その内、1本を飛び石のようにしてファイルを移していくしかないんでしょうか
364 :
名無しさん@お腹いっぱい。
2013/05/20(月) 20:17:30.23
やりたい事と使えるリソースを「俺用語を用いずに」書かないと適切な回答は得られないと思うよ
以下、俺なりにエスパー

ギリギリまで節約したい、移行時には冗長性はなくてもいいって話なら、ミラー解除一本+新規追加一本に
スパースファイルで raid-z 組んで、ミラーの残りから zfs send+recieve その後ミラー側を zpool destroy で
raid-z 側に追加とか出来なくもないと思うよ
365 :
名無しさん@お腹いっぱい。
2013/05/20(月) 22:30:37.45
まさかとは思うけど、ZFS mirror は起動ディスクになってないよね?
366 :
名無しさん@お腹いっぱい。
2013/05/21(火) 00:35:35.74
>>365
なってないです。rpoolとは別のプール(ミラー)に外に見せるファイルを置いてます。
ZFSのroot(rpool?)をミラーに出来るほどの技量は無いので...

>>363は、↓のようなあまりひねりの無い方法で考えてました
1.現行ミラープールを構成してるHDDと同容量のHDD2本(仮にHDD A、HDD B)を用意する
2.1.で用意したHDD Aにプールを作る。
3.現行のミラープールのファイルを2.で作ったプールに移す
4.現行のミラープールをdestroyする
5.HDD Bと元ミラーHDD2台の合計3台でRAID-Zプールを作る
6.HDD Aのプールのファイルを5.のRAID-Zプールに移して完了。
でも>>364のスパースファイル使う方法が非常に魅力的なので、
VirtualBoxで予行演習してみようと思います。

とか言っても、一番危ないのはコマンド打ったり、SATAケーブル抜き差しする自分自身だったりするからな...
367 :
名無しさん@お腹いっぱい。
2013/05/21(火) 01:00:47.50
>>366
それなら
 現在のmirror(仮にC,D)のうちDをdetachする
 A,B,Dでraidzを構成
 単体となったCからraidzにzfs send
というのでいいんじゃないの?
それをさらにスパースファイルでHDD節約するというのが >>364
368 :
名無しさん@お腹いっぱい。
2013/05/23(木) 23:15:13.39
なるほどなー。縮退させておいて移行後にリプレイスするのか。

ZFSでmirror→RAID-Zに変更する手順の作業ログ
http://www.sonorilo.net/2010/07/07/2735
369 :
名無しさん@お腹いっぱい。
2013/05/23(木) 23:36:11.67
◆じゃあのさん来た!◆
917:以下、名無しにかわりましてVIPがお送りします[]
2013/05/23(木) 22:25:46.82 ID:MT5ZqnSp0
ようおまいらwwwwよりしくやってっか?wwww
俺か?www俺は元気だwwww

--- 以下スレ情報 ---
高岡さんがフジ韓流ゴリ押し批判したら干されたのでウジテレビ凸
http://hayabusa.2ch.net/test/read.cgi/news4vip/1369316645/
370 :
名無しさん@お腹いっぱい。
2013/05/27(月) 00:13:07.87
zfsでraid5〜6みたいな実装が追加される予定ってないの?
read遅すぎなんだが
371 :
名無しさん@お腹いっぱい。
2013/05/27(月) 00:18:04.00
>>370
お前の環境か、お前の頭が悪い
372 :
名無しさん@お腹いっぱい。
2013/05/27(月) 00:47:23.60
raid5よりraidzのreadが遅いのは環境のせいだったのかー
てっきり仕組み上仕方ないのかと思っていたよ
で、具体的にどんな環境ならそうなるのかなー?
373 :
名無しさん@お腹いっぱい。
2013/05/27(月) 01:47:30.43
「zfsでraid5〜6みたいな実装」が既にあることを理解出来ないお前の頭が悪い
374 :
名無しさん@お腹いっぱい。
2013/05/27(月) 07:00:00.01
え? あるの?
375 :
名無しさん@お腹いっぱい。
2013/05/27(月) 07:05:49.36
説明の足りない奴と行間の読めない奴の会話
376 :
名無しさん@お腹いっぱい。
2013/05/27(月) 07:10:36.08
>>375
どこかの市長みたいだな。
377 :
名無しさん@お腹いっぱい。
2013/05/27(月) 13:38:08.86
zfsにはraid5~6みたいな機能はすでにあるがraid5~6を実装しているわけでナイ。
性能が悪いのはraidzのせいだがzfs的にはそこはraidzに文句を言わずにプール中のアレイ増やして解決しろ。

だっけ?
つくづく個人向けじゃねーわ>zfs
378 :
名無しさん@お腹いっぱい。
2013/05/27(月) 15:02:19.32
zfsやめてufjに戻します
379 :
名無しさん@お腹いっぱい。
2013/05/27(月) 15:29:20.43
はいはい、ついでにSolarisやめてLUMIXに戻してくださいw
380 :
名無しさん@お腹いっぱい。
2013/05/27(月) 16:54:18.97
カメラかよ
381 :
名無しさん@お腹いっぱい。
2013/05/27(月) 17:21:49.91
l2arc
382 :
名無しさん@お腹いっぱい。
2013/05/27(月) 19:45:48.01
結局raidzが遅いのは変わらずか
とっととraid5的な実装も追加してほしいね
H/W RAID5でzpoolつくって〜とかやりたくないんだがやってみたら十分速度出るんだよなw
383 :
名無しさん@お腹いっぱい。
2013/05/27(月) 20:46:48.48
>>382
ディスク20発に64GB位積めば
速度出るんじゃね?
元々そういうもんだし。
ディスク一桁台のシステムなんて、考えてねーぞ、元から。

それで遅いといわれても、はいそうですかって感じ。
384 :
名無しさん@お腹いっぱい。
2013/05/27(月) 21:18:35.96
このバカの脳内にある「raid5的な実装」ってのを見てみたいな
NetAppだってEMCだって「IOPS稼ぎたいなら、ディスク増やせ」って言ってくるってのに
385 :
名無しさん@お腹いっぱい。
2013/05/27(月) 21:26:43.67
スケール可能という話と、スケール必須という話を勘違いしている
10台以上前提とかどこに書いてあるんだ?
386 :
名無しさん@お腹いっぱい。
2013/05/27(月) 22:23:54.55
SVMさいきょう
387 :
名無しさん@お腹いっぱい。
2013/05/27(月) 22:33:38.99
Readを速くしたいならSSDをキャッシュとして突っ込め
388 :
名無しさん@お腹いっぱい。
2013/05/27(月) 22:37:44.40
>>382 はSoftware RAID-5 の書き込みホール問題とかどう考えてんの?
389 :
名無しさん@お腹いっぱい。
2013/05/27(月) 22:42:15.25
SSD200GBのL2ARCとSSD16GBのZILを突っ込んでるけど速くなったって気はしないなぁ…
でも仮想マシンの台数の割に反応速度が落ちないって実感はある
390 :
名無しさん@お腹いっぱい。
2013/05/28(火) 08:59:19.16
>>377
>つくづく個人向けじゃねーわ>zfs

個人は最初から相手にしてません、
というか個人の方はうっとうしいから使わないでお帰りください
391 :
名無しさん@お腹いっぱい。
2013/05/28(火) 10:14:34.89
>>385
誰もスケールの話しなんてしてない、
あなたが、ZFSの仕組み分かってないだけ。

ZFSで性能を求めたいなら、ディスクを増やせと。
IOPS稼ぐには、VDEVを増やすしか無い、
特にVDEVにRAIDZ/Z2を使う場合な。
3発のRAIDZを、5つ位纏めてプール作れば、
そこそこいけんじゃねーの。

つか、そもそも、どの程度の速度ほしいのか、
提示してないよな?お前。
392 :
名無しさん@お腹いっぱい。
2013/05/28(火) 14:46:58.85
とりあえず、zfsでSSDをcacheに置くなら
http://blogs.oracle.com/yappri/
辺りを熟読するのが鉄板じゃね?
393 :
名無しさん@お腹いっぱい。
2013/05/28(火) 20:58:55.61
なんかHDD本数増やせとかがんばってる人いるけど他と比べてRaidzが遅いのが原因じゃないの?
ZFSに読み込み速い実装が追加されるなら俺は大歓迎なんだが何が気にくわないのかねぇ
単に速度がほしいなら全部SSDにすればよくね?わざわざHDD本数増やす意図が分からんよ…
394 :
名無しさん@お腹いっぱい。
2013/05/28(火) 21:29:05.78
話をそらそうとしても、お前の頭が悪いだけ
395 :
名無しさん@お腹いっぱい。
2013/05/28(火) 21:31:01.29
だったらZFS以外使えばよくね?
ディスク増やせって言ってるのは、
ZFSがどう言うものか、わかった上でアドバイスしてるだけで。

別に無理してZFS使えなんて、誰も言ってないし。
396 :
名無しさん@お腹いっぱい。
2013/05/28(火) 21:34:01.19
「RAID5は速い」「raid-zは(遅いので)RAID5的な実装ではない」
とか、脳内で決めつけてるバカに何をどう説明しても無駄だろう
「速い」とか「遅い」が具体的に示されてない段階でこいつがバカなことは明らかだし
397 :
名無しさん@お腹いっぱい。
2013/05/28(火) 21:35:40.91
>>393
おまえがそーすりゃ良いんじゃねーの?

Oracleがソースクローズにしたおかげで、
そうそうZFSの根本的なところに手はいんねーよ?
398 :
名無しさん@お腹いっぱい。
2013/05/28(火) 22:59:17.24
RAID5の定義がわからんなぁ。
399 :
名無しさん@お腹いっぱい。
2013/05/28(火) 23:05:56.49
いやいや、RAID5は分かるでしょ
誰かさん脳内の「RAID5的な実装」が分からんだけで
400 :
名無しさん@お腹いっぱい。
2013/05/28(火) 23:53:33.53
お前らいじめすぎw

ZFS愛の強さゆえか・・・
401 :
名無しさん@お腹いっぱい。
2013/05/29(水) 08:45:03.65
新着レスがここしばらくぶりの伸び具合だったんで、OIの新展開がキタのかと思ったら・・・
402 :
名無しさん@お腹いっぱい。
2013/05/29(水) 09:48:24.60
個人wはLUMIXでUFJつこてたらそんでえーの
403 :
名無しさん@お腹いっぱい。
2013/05/29(水) 10:35:25.19
raid5バカもアレだが、この個人キチガイも大概だな
対消滅すればいいのに
404 :
名無しさん@お腹いっぱい。
2013/05/29(水) 19:49:10.35
>>396がわかってなさそうだがraidzとraid5は全く別だぞ
raidzがraid5に比べて読み込み遅いのは誰もが認める事実
405 :
名無しさん@お腹いっぱい。
2013/05/29(水) 19:59:26.62
raidzが遅いのはzfsゆえだろ?
zfsで速いraid5とやらを作るのは不可能なんじゃね?
406 :
名無しさん@お腹いっぱい。
2013/05/29(水) 20:58:13.70
誰もがって誰っすかね?
407 :
名無しさん@お腹いっぱい。
2013/05/29(水) 21:10:45.80
まぁ、RAID5とARCやL2ARCなしのraid-z比較すれば遅いだろうな
なんの意味があるのかは知らんが
408 :
名無しさん@お腹いっぱい。
2013/05/29(水) 21:12:40.38
×遅い
○遅い場合もある
409 :
名無しさん@お腹いっぱい。
2013/05/31(金) 12:35:10.57
現代でガンダーラに行きたがる人位にはいる「誰も皆」なんじゃないかな?
410 :
名無しさん@お腹いっぱい。
2013/05/31(金) 13:05:39.47
ゴダイゴ乙
411 :
名無しさん@お腹いっぱい。
2013/06/14(金) 22:17:36.12
なんだraid-zの実装も知らんやつが騒いでたのか
自動的に分散されるからraid5より上なんだがな
412 :
名無しさん@お腹いっぱい。
2013/06/15(土) 00:24:10.29
>>411
その代わりファイルサイズは嵩増しされるけどね。
413 :
名無しさん@お腹いっぱい。
2013/06/20(木) 20:45:50.31
RAIDZがそんなに速かったなんて初耳だわw
414 :
名無しさん@お腹いっぱい。
2013/06/20(木) 22:03:16.32
まーた始まった。「そんなに」を定義しろよ
415 :
名無しさん@お腹いっぱい。
2013/06/20(木) 22:45:43.62
raidzがそんなに遅いというベンチはみつからなかったな。
速いか甲乙つけがたい程度。

http://www.pcserver1.jp/blog/40/20100413/13
http://kimson.name/wordpress/archives/92
416 :
名無しさん@お腹いっぱい。
2013/06/20(木) 23:26:12.73
なんだーありゃ
なんだーありゃ
ぜーせーふふんふん・・・
いーんでぃあ
417 :
名無しさん@お腹いっぱい。
2013/06/21(金) 16:01:08.96
OpenIndianaはなんかお先真っ暗状態・・・?

ZFSはカーネルであるillumosが開発の中心で、上物は関係無いし、
ZFS含むシステムなら、FreeBSDの方が圧倒的にアクティブな人多いし、
lz4対応は結果、BSDの方が速くなっちゃったからなぁ。

そしてSolaris自体がOracleになった事によって、
そもそもオープンなSolaris環境自体が、もうイラネって方向になってそう。。。
ZFSも本家と枝分かれせざるを得ない現状、別にSolaris系で作る必要も、
無くなってきてそうだしなぁ。
418 :
名無しさん@お腹いっぱい。
2013/06/21(金) 16:45:57.40
FreeBSDの ZFSってメモリ使用がドンブリなの直ったの?
419 :
名無しさん@お腹いっぱい。
2013/06/21(金) 21:42:26.64
×ドンブリ
○富豪
420 :
名無しさん@お腹いっぱい。
2013/06/21(金) 23:07:10.27
大富豪
421 :
名無しさん@お腹いっぱい。
2013/06/22(土) 08:58:01.14
ストレージ鯖でしか使って無いから、
メモリーの割り当てには困らないんだが、
そんなに違うか?
てか、そもそもZFSはメモリー食わしてなんぼでしょ。
422 :
名無しさん@お腹いっぱい。
2013/06/22(土) 09:42:36.43
カーネルスレッドが遅すぎて、まともな速度が出ない問題は治ったの?
423 :
名無しさん@お腹いっぱい。
2013/06/22(土) 13:27:38.46
どだろ、ZFSって元々ベンチマークで比較しにくいファイルシステムだが、
うちで、Hyper-Vのストレージとして使ってる奴は、
ハード全く同じでOI151a7+COMSTARとFreeBSD 9-stable+istgtじゃ、
シーケンシャルで100MB+ランダムでも50MB+平均で速いかな、IBのQDR IPoIBで繋いだ状態で。
ランダムでのレスポンスも体感では良さそう、OrionのAdvancesはまだかけてないから、分からんけど。
424 :
名無しさん@お腹いっぱい。
2013/06/22(土) 14:24:38.25
oi151のCOMSTARでiSCSIデバイスを作って、
Windows7のVirtualBox仮想マシンのブートドライブに設定してから、
Windows8をインストール、起動させるのに成功しました。
ここまでやると、ライブマイグレーションというのができるそうですが、
フリーのVirtualBoxだけでできるのか調べてるところです
425 :
名無しさん@お腹いっぱい。
2013/06/24(月) 02:48:47.81
>>415
そこで直線番長な結果持ってくるのはちょっと恥いので
少なくともWriteとシーケンシャルReadは高速だぞ、とかにしとけ
(ほんとに使えるなら公式がmirror推奨したりしねえ)
426 :
名無しさん@お腹いっぱい。
2013/06/24(月) 10:20:02.60
直線番長?
427 :
名無しさん@お腹いっぱい。
2013/07/01(月) NY:AN:NY.AN
OmniOS使ってみた。
鯖用途なら、現状、OIよりこっちの方が良いかも。
カーネルその他周辺も、精力的にメンテされてるし。

まぁ、OIの更新がとろいってか、止まってんのが悪いんだが。
428 :
名無しさん@お腹いっぱい。
2013/07/02(火) NY:AN:NY.AN
>>427

OIは hipster ってのが頑張ってる。
151a7 -> hipster は、クリーンインストールからのアップグレードはいけたけど、
使用中のa7からは、試してないんだよな。
kernelとか最低限のuserlandは、最新のillumos-gate追っかけてるよ。

リポジトリはこれ -> http://pkg.openindiana.org/hipster/
429 :
名無しさん@お腹いっぱい。
2013/07/15(月) NY:AN:NY.AN
oi_151a7で512バイトセクタの2Tバイトディスク10発でraid-z2のpoolを使っていたんだが
最近の猛暑でマシンが落ちてしまい、何とか復旧はしたんだが、一つのWD20EARSがあまりに遅くて全体の性能を落とすようになった。
そこでST2000VN000を買ってきて交換した。
・・・んだがディスク交換後にreplaceかけたらエラーになった
zpool replace tank c14t1d0
cannot replace c14t1d0 with c14t1d0: devices have different sector alignment

過去ログ呼んでたら
>>264
でそのあたりの話が出てたので書いてあったwikiを見た
がんばって英語を読んでみたが最後のほうの
Migration of older pools onto newer disks
という章を読む限り、既存のashift=9で構成されているpoolに4kのディスクを交換するのって要するに無理ってことなんだろうか
430 :
名無しさん@お腹いっぱい。
2013/07/16(火) NY:AN:NY.AN
>>429
とりあえず低速病乙。

試したこと無いけど、多分無理。
ま、出来たとしても、ashift=9のpoolでAFTのDrive使ったら、恐らくそいつが足引っ張る事になるだろうけど。

既存のHDDをsd.confでAFT扱いにして、pool作り直す手もあるっちゃあるが、
結局pool消す事には変わらんし、素直に全数入れ替える事を、おすすめするよ。
他にもEARSが有るなら、そいつも低速病発症するかもしれんし。
緑なんてさっさとポイしちゃいなさい。
431 :
名無しさん@お腹いっぱい。
2013/07/16(火) NY:AN:NY.AN
7K4000 とか、2TB でも 512byte/sector なの買えばいいんじゃねーの?
432 :
名無しさん@お腹いっぱい。
2013/07/16(火) NY:AN:NY.AN
>>430
> 緑なんてさっさとポイしちゃいなさい。
そのためにpoolのHDD10個まとめてポイするハメになるとか・・・ポルナレフ召喚していいですか?
あとHBAに安いからという理由でヤフオクで入手したLSIの3041を使ってたりするんだが、いろいろと詰んでる事がわかった。

>>431
7K4000とかググってみたけど扱ってる店もうないみたいだが・・・

とりあえずWindowsマシンにちょっと古めのHGSTの7K3000 が刺さっているの見つけたのでこれと入れ替えを画策することにした
これOI特有なのかな?BSDとか本家ではどうなんだろ
これ困る人結構出てきそうな気がするんだが
433 :
名無しさん@お腹いっぱい。
2013/07/16(火) NY:AN:NY.AN
>>431

> 7K4000とかググってみたけど扱ってる店もうないみたいだが・・・

自己レスだが4000とかってサイズかと思って2000に置き換えてググってたがそうじゃないのか
サハロフとかの表記だと別の形式だから混乱したがHGSTならまだ512セクタのHDDを扱ってるのな
でも値段がちょっと高めなのが悩ましい
434 :
名無しさん@お腹いっぱい。
2013/07/17(水) NY:AN:NY.AN
>>432
FreeBSDでも同じような感じに陥ったことがあって、もう面倒くさくなったので
新規poolは全部ashift:12で作るようにしちゃってる

10台全部まとめて交換しなくても、半分くらいの交換で低速病が改善されるかも
自分の場合は、6台交換した時点で低速病が滅多に出なくなった
因みに交換したHDDはsmartエラー出まくりだったから、RMA交換して
ヤフオクに出しちゃったから、出費がそんなになかったのはラッキーだった
435 :
名無しさん@お腹いっぱい。
2013/07/17(水) NY:AN:NY.AN
>>432
>LSIの3041
その辺詳しく
436 :
名無しさん@お腹いっぱい。
2013/07/17(水) NY:AN:NY.AN
どうせ2.2TBの壁とかジャネーノ?
437 :
名無しさん@お腹いっぱい。
2013/07/18(木) NY:AN:NY.AN
>>436
そのとおりダヨ
いまpoolまるごと更新するならコスパと将来性で3TBモデル選びたいがそうするとHBAまで更新しなきゃならなくなる

さて22時にディスク交換してresilverが後12時間かかるようだ
明日はエアコン付けっぱなし&前面扇風機で会社行くしかねーな
438 :
名無しさん@お腹いっぱい。
2013/07/18(木) NY:AN:NY.AN
>>434
FreeBSDでも発生するのか
ってことはVer28共通の問題なんかな

本家はどうなってるんだろう
439 :
名無しさん@お腹いっぱい。
2013/07/19(金) NY:AN:NY.AN
>>436
あぁそういう系のか。確かにそれはそれでいやだな
なにかディスクエラー時にzfsが凍るとかドライバ・ファーム周りかと思った
440 :
名無しさん@お腹いっぱい。
2013/07/23(火) NY:AN:NY.AN
ZFSだけ使えればいいから、あとはZFSを外向きに簡単設定でexport出来るようなUIをつけたのを出してくれないかな
441 :
名無しさん@お腹いっぱい。
2013/07/23(火) NY:AN:NY.AN
export が NFS 的なそれなら、外向きもクソもないだろうし、inherit するから create する時に
sharenfs なりしとけばいいと思うが
442 :
名無しさん@お腹いっぱい。
2013/07/25(木) NY:AN:NY.AN
freenasとかnexentaとかじゃいかんのか
443 :
名無しさん@お腹いっぱい。
2013/08/16(金) NY:AN:NY.AN
444 :
名無しさん@お腹いっぱい。
2013/08/16(金) NY:AN:NY.AN
昨日oi-dev-151a8-live-x86.isoをダウンロードするのに一晩かかった。
445 :
名無しさん@お腹いっぱい。
2013/08/16(金) NY:AN:NY.AN
黄緑色は目が疲れる。
446 :
名無しさん@お腹いっぱい。
2013/08/21(水) NY:AN:NY.AN
SATA3に対応したっぽい表示になったっぴ。
以下、boot開始〜ログインできるところまでsyslogを比較して違ってたところ。
〜〜
sata: SATA Gen2 signaling speed (3.0Gbps)
 ↓a7からa8
sata: SATA Gen3 signaling speed (6.0Gbps)
〜〜
zfs: open version 5000 pool rpool using 5000
 ↓a7からa8
でない
〜〜
/usr/lib/power/powerd: [ID 387247 daemon.error] Able to open /dev/srn
 ↓a7からa8
でない
〜〜
447 :
名無しさん@お腹いっぱい。
2013/09/09(月) 15:14:19.35
チラ裏
Oi 151a8とzfs on Linux(0.6.2)のアレイ互換性実験してみた
Linux側の鳥はopenSUSEとdebianで
zfs export/zfs importで問題なくお互いのアレイを使える模様
exportなしでOiを単純にシャットダウンしてLinux側でzfs import -f でも大丈夫

あたりめーだろアフォという話だったらスマソ
448 :
名無しさん@お腹いっぱい。
2013/09/09(月) 22:41:14.41
よろしい、では各feature flagsをactiveにしたときの互換性を確認するんだ
・・・というのは冗談としてoi、ZoLやその他諸々と相互運用できるファイルシステムは便利だな
FreeBSDもv5000になったみたいだし、MacZFSもZoLからのポートを開発中だから色んなOSで広く使えそう。
ディスク上のデータだけちゃんとしてれば各ポートでトラブル起こってもとりあえずoiでインポートできるから助かる。
(実際ZoLでresilverが無限ループに陥ったけどoiで回復できたことがあった)
449 :
名無しさん@お腹いっぱい。
2013/09/09(月) 23:17:10.42
正直、単体ディスクで試したんだろーな、程度にしか思えない俺がいる
450 :
名無しさん@お腹いっぱい。
2013/09/10(火) 00:02:16.63
なんか警告とかでた?
451 :
447
2013/09/10(火) 00:04:27.05
>>449
一応仮想環境でのRAIDZ3台から初めて実ディスクSATA3台のRAIDZ、実ディスク6台のRAID-Z2、同6台AFT付と試したお
452 :
名無しさん@お腹いっぱい。
2013/09/18(水) 22:24:35.83
openzfsのページでGMOのロゴがでかでかと出てきて
盛大に萎えた
453 :
名無しさん@お腹いっぱい。
2013/09/19(木) 00:27:39.27
>>452
https://github.com/zfs-osx/zfs/blob/master/AUTHORS.OSX
実は現行のZFS-OSXに一番コミットしてるのがGMOの人だったりする。
だからまあ気に食わなくても理解はできる。
454 :
名無しさん@お腹いっぱい。
2013/09/23(月) 06:22:34.76
ZFSを利用したNASを構築を検討しているのですが何点か疑問があります
1.OracleSolarisとOpenSolaris系で機能・性能上の違いはどの程度ありますか?
2.Solaris系とFreeBSD系で機能・性能上の違いはどの程度ありますか?
  FreeBSDは使用経験がありますが、ZFSはSolarisが本家なので
  どちらがよいのか悩んでいます
3.ZFSでWindows8のストレージプールのnウェイミラー的な構成は可能ですか?
  5ウェイミラー(4台死亡までサービス継続)の構成が取れるのであれば
  そのような構成の利用も検討したいです
判る方がおりましたら教えてください。よろしくお願いします
455 :
名無しさん@お腹いっぱい。
2013/09/23(月) 08:34:42.52
>>454
1.
OracleSolarisは機能的にはプール暗号化とかそのへんで若干進んでる、性能レベルは誤差
ただIllumos系はFreeBSD/ZFSonLinuxとの互換性を取る方向に進んでる
今は完全ではないけどそのうちアレイの完全互換が期待できる

2.
zfs自身の性能差はFreeBSDとSolarisで大差ない
ただし、iSCSI/cifs/nfsあたりの性能はillumosの方が高い。これは体感できるレベル

3.
windowsのストレージプールがよくわからんが、3Way〜nWayのRAID1相当ってことでいいのかな?
それは問題なくできる。RAID-Z/Z2の4Wayミラーで8台*4の32台アレイとか普通に組める
456 :
名無しさん@お腹いっぱい。
2013/09/23(月) 15:02:47.98
最近solaris利用者かなり減ってます?
457 :
名無しさん@お腹いっぱい。
2013/09/23(月) 15:04:34.62
そりゃ増えることはないからね
458 :
名無しさん@お腹いっぱい。
2013/09/23(月) 15:15:02.66
絶対数では微々増で、割合としては大幅減なんじゃないかな
459 :
名無しさん@お腹いっぱい。
2013/09/23(月) 18:39:42.70
>>454
v29以降の機能が入ってるのがOracle、feature flags以降の機能が入ってるのがillumos系
あと個人的には5wayミラーの理由が気になる・・・そんな凄いデータなのか
そこまで行くとミラー数増やすより停電・天災等々で物理的に全HDD逝ってしまうリスクに対処する方がいい気がしてしまうけど。

>>456
需要の多くがZFSで、そのZFSもFreeBSD/Linux移植の完成度が上がれば上がるほどそっちに流れるからなぁ。
460 :
454
2013/09/23(月) 20:29:22.71
レスありがとうございます
長文失礼します

>>455
1・・・こだわらなければOpenSolaris系で良さそうですね
2・・・NASとしての性能面ではSolaris系の方が有利ですか
 軽く探して見た感じだとSolaris系の場合は対応したSATA HBA(PCI-Express)カードが
 なかなか見つから無いように思います
3・・・すみません。自分もWindows8のストレージプールについては良く理解できていません
ストレージを仮想化して、スケーラビリティ、復元性、効率性を高める - Building Windows 8 - Site Home - MSDN Blogs
http://blogs.msdn.com/b/b8_ja/archive/2012/01/13/10256576.aspx
2ウェイミラーと3ウェイミラーが使用可能のようですが、3ウェイミラーは
・パリティではなくミラーを複数台のドライブに分散して記録する
・2台以上死んでもサービスを継続できる
っぽいです。具体的な原理は自分も良く理解できていません
このミラー数を5くらいに増やせれば4台死んでもサービスの継続が可能なのでは?と思いました
パリティを用いないのでRAID-ZやRAID-Z2よりパフォーマンス面で有利のような気もします
Windows8による構築も検討して調べてみているのですが、縮退モードからドライブ交換無しでリビルドできたり
プールからドライブの削除が出来たり、SATAカードが選び放題だったりと、Solaris(or FreeBSD)+ZFSより
優れる面もあるのですが、実績がほとんど無いこととWindowsだと言うことで不安があります

>>459
現在16台構成(内2〜4台はリザーブ)でNASの構築を検討しているのですが
HBAやドライブ電源の障害でNAS丸ごとクラッシュという事態は避けたいです(単一障害点の削減)
RAID-Z2や3ウェイミラーの場合は2台の死亡までしか許容できないのでHBAと電源を
8台用意する必要があり、流石に現実的ではありません
現実的には
4台死亡を許容(5ウェイパリティ、RAID-Zしたセットをプールに追加)してHBAと電源を4台用意するか
8台死亡を許容(RAID10。ミラーしたセットをプールに追加)してHBAと電源を2台用意する
あたりが落としどころかなと思っています
461 :
名無しさん@お腹いっぱい。
2013/09/23(月) 21:16:01.12
> Solaris系の場合は対応したSATA HBA(PCI-Express)カードがなかなか見つから無いように思います

ま、思うのは勝手だけどな。普通LSI買うだろ

> このミラー数を5くらいに増やせれば4台死んでもサービスの継続が可能なのでは?と思いました

別に何面ミラーでも作れると思うけどな>ZFS

> パリティを用いないのでRAID-ZやRAID-Z2よりパフォーマンス面で有利のような気もします

パフォーマンスは知らんけど、容量は不利だろうな

> 縮退モードからドライブ交換無しでリビルドできたりプールからドライブの削除が出来たり

ミラー構成なら何でも出来るだろ>ZFS

> 現在16台構成(内2〜4台はリザーブ)でNASの構築を検討しているのですが

以下意味不明につきレスは避ける
取り敢えず、1台のマシンをNASにするなら、その1台が単一障害点とやらになるだろ
462 :
名無しさん@お腹いっぱい。
2013/09/23(月) 21:47:41.75
>>460
http://wiki.openindiana.org/pages/viewpage.action?pageId=23856206
Adaotec/Highpoint/LSIと主だったところは大体対応してるけどな
(Highpoint対応されたのは確かに比較的最近だが)
463 :
名無しさん@お腹いっぱい。
2013/09/23(月) 21:53:30.33
てゆーかそこまで耐久性とかこだわるんならSAS使うべ?それならWindowsのみなんてカードほとんど無いと思うけど?
464 :
名無しさん@お腹いっぱい。
2013/09/23(月) 22:13:29.99
なんつーか、素直にNetAppでも買っとけって話じゃね?
465 :
名無しさん@お腹いっぱい。
2013/09/23(月) 22:14:54.71
要件定義に失敗してるよーな
466 :
名無しさん@お腹いっぱい。
2013/09/23(月) 22:23:59.60
Win8のn方向ミラーは「データをアレイ中の任意のn台に書く」ってだけだよね。そんな難しい原理ではなかった気が。

何重ミラーにしようと1つのマシン上でやる以上はrm -rf /には勝てないんだから、
別マシンを用意してzfs send/recvする方が良いとは思うんだけどね。
数TBのバックアップストレージを予算的に用意できないからやむを得ずRAIDによるデータ保護に期待する、
ならともかく5wayミラー想定するほどHDDに余裕あるなら、自分だったら8台でRAID-Z2組んだマシンを2台用意する。
データ保護より何より高可用性が大事なんだとしても、HBAなり電源が逝ったみたいな事態だと結局マシンは止めなきゃいかんのだし。
467 :
名無しさん@お腹いっぱい。
2013/09/24(火) 08:16:49.37
snapshotスクリプトがコケててsnapshotが取れてなかったDatasetが
アプリのバグでファイルの半数以上がrmされたorz

(朝五時に電話かかってきて「ファイル消えてんぞぐるぁ」と来た)
zdbでブロックが残ってるのは確認したが、約2T/20万objectの羅列を眺めて15分ほど固まった

そんな俺に誰か一言
468 :
名無しさん@お腹いっぱい。
2013/09/24(火) 10:37:23.78
バックアップって大事だね
469 :
名無しさん@お腹いっぱい。
2013/09/24(火) 10:51:34.55
snapshotでniceshot!
470 :
名無しさん@お腹いっぱい。
2013/09/24(火) 15:14:49.90
>>460
後半何言ってるのかわかりません
>>467
zdb叩く前にとっととバックアップからリストアしろ
471 :
名無しさん@お腹いっぱい。
2013/10/02(水) 22:09:45.65
仮想マシン上のOpenSolarisにApacheとPHPをインストールしなければならないのですが、
手元の資料にはどちらも解凍・展開からの手順しか書いておらず進められずにいます
解凍・展開前に必要な準備等がありましたら教えて頂けないでしょうか
472 :
名無しさん@お腹いっぱい。
2013/10/02(水) 23:22:37.37
まず服を脱ぎます。
473 :
名無しさん@お腹いっぱい。
2013/10/02(水) 23:24:29.22
まず服を脱ぎます
474 :
名無しさん@お腹いっぱい。
2013/10/03(木) 08:39:21.94
PHP出版に勤めます
475 :
名無しさん@お腹いっぱい。
2013/10/04(金) 19:51:07.50
PHP出版を辞めましたエントリを書きます
476 :
名無しさん@お腹いっぱい。
2013/10/04(金) 19:52:54.75
つまんね。
477 :
名無しさん@お腹いっぱい。
2013/10/05(土) 21:05:41.25
>>467
スナップショットがこけててもバックアップがあるんだから問題ないだろ。
2TBの書き戻しは気が変になりそうだろうが、がんばれ/
478 :
名無しさん@お腹いっぱい。
2013/10/06(日) 15:15:27.57
>>471
展開前のブツをDLしてきたとか手持ちであるならそこから進めるだけじゃん?w
つーかその資料とやらを作ったヤシに聞けよ
479 :
名無しさん@お腹いっぱい。
2013/11/03(日) 12:20:27.14
CIFSストレージとして使ってますが、ストレージ空き容量が減ってくると
加速度的に読み書きが遅くなりますね
480 :
名無しさん@お腹いっぱい。
2013/11/03(日) 14:12:45.89
>>479
ZFSの事か?
ま、公式にも使用量は80%以下で使えと言われているし、
CoWの仕組み上、空き容量が減ってくると遅くなるのは、
しようが無い事ではある。
DISK数が少ないと、なおさら効いてくるかもな。
481 :
名無しさん@お腹いっぱい。
2013/11/03(日) 15:14:16.11
そこでZILとL2ARCをSSDで、ですよ奥さん!
482 :
名無しさん@お腹いっぱい。
2013/12/06(金) 22:56:03.83
dedup=onでrecordsize=4kとかにするとファイル書き込んだときにwriteが増えて異常に遅くなるんだがこれなんだろ?
recordsize弄らなければ急に遅くはならないし、read増えてないのでDDTに書きに行ってるとかか??
recordsize大きいとデータに埋もれて見えないだけとかいうオチか? dedup率優先なpoolにしようかと思ったが遅すぎる

実験方法:
vmに16〜32GB程度メモリ割り当て。zpool create ; zfs create ; zfs set dedup=on, compress=on, sync=disabled
cp dummy_5GB.bin hoge
zfs set recordsize=4k
cp dummy_5GB.bin hoge
483 :
名無しさん@お腹いっぱい。
2013/12/07(土) 07:48:19.15
>>482
http://blogs.oracle.com/roch/entry/tuning_zfs_recordsize
Other consideration (metadata overhead, caching) dictates however that the recordsize not be reduced below a certain point (16K to 64K; do send-in your experience).
484 :
名無しさん@お腹いっぱい。
2013/12/07(土) 19:19:55.08
今回のはdedupが支配要因に見えるしここまで遅いとそういう話ではないような気も。
ひとまず32kでやってみるけど。
ddtとかのメタデータって2〜3重化されてるんだっけ? 実験的にOFFにできるのかな。
実験先のドライブが1LUNなのが問題な気がしてきた。
485 :
名無しさん@お腹いっぱい。
2013/12/08(日) 08:34:34.33
2重化されてる。
ZAPはrecordsize単位で作られるのだから128K→4Kでは32倍にもなる。
486 :
名無しさん@お腹いっぱい。
2013/12/08(日) 09:08:30.23
ところで、本番で想定しているプールサイズで、メモリ消費量予想してみました?
http://www.c0t0d0s0.org/archives/7271-ZFS-Dedup-Internals.html
RAM 32GB→ARC 24GB→metadata 6GB→...
recorsize=4KBだと、プール1TBで DDT 3GBくらいとか?
dedupでストレージを節約しようとしても、代償に必要とされる
メモリが高コストにつくと、あまり意味ないのでは。
487 :
名無しさん@お腹いっぱい。
2013/12/09(月) 19:54:47.72
>>485が書いてくれてるとおりrecordsizeの減少はmetadataの急激な増大を生むので単にそれが原因ぽい
特に1ドライブ上で実験してしまうと離れた位置に2重化して書き込もうとするので猛烈なrandom writeに。
(割とマシなSANでもRAID6 1LUNマウントでは追いつかなかった)
物理ドライブを8本にしてみたら極端な遅さにはならなくなった(1〜2本が酷いだけで4本程度あれば十分かもしれない)が
write総量がかなり増えることには違いないので相性の良いハードで無い限りrecordsize=4kはしんどそう
格納するデータが2k〜4kブロックでないと重複排除が効きづらいものだとzfsの使用は悩ましいことになる
recordsize=128kでの重複排除率が低すぎる場合はserver2012あたりに浮気した方がいいのかもしれない

>>486
メモリ64のマシンが余ったので仮想で半分割り当ててみたんだがarc_meta_limit上げれば割と収まるんじゃないかなー
若しくはARCは16程度でL2に64くらいとか(計算してないけど)
488 :
名無しさん@お腹いっぱい。
2013/12/14(土) 09:43:55.45
Dedupの効率?みたいな物の比較ってある?
確かにZFSでDedupしても予想の半分程度しか減らないことがある
Compressと併用すると効率が悪くなったりしないよね
489 :
名無しさん@お腹いっぱい。
2013/12/14(土) 17:36:55.37
dedupは思ったほど効果なかったなぁ
そのデメリットがあまりにひどすぎて使うのやめたが
gzip圧縮の方がかなり効く

そもそもdedupがそんなに必要となる状況ってどんなのがあるんだろう?
バックアップで各世代をそのまま保存しつつ、変更がないから同じファイルが
いくつも存在するといった場合なら、そもそもsnapshotバックアップでいいし
490 :
名無しさん@お腹いっぱい。
2013/12/14(土) 20:40:55.24
仮想マシンのイメージファイル置き場がメジャーじゃね
ひな形vmをコピーする際にzfs cloneすればいいんだが、実際は丸コピした方が楽な場合が多くw
(ファイル単位でclone出来るようにはならんのか?)
491 :
名無しさん@お腹いっぱい。
2013/12/14(土) 20:50:36.07
マジレスすると、メールアーカイブで添付ファイルとかに効くと思う
492 :
名無しさん@お腹いっぱい。
2013/12/14(土) 22:28:48.23
添付ファイル単位で単離されてるならそりゃ効くだろうけども
メル鯖によってはbase64encされた状態でtextの間に挟まってないかそれ? dedup効くのかね
493 :
名無しさん@お腹いっぱい。
2013/12/14(土) 22:42:06.40
>>490
cloneはファイルシステムを分けて使う場合は便利だけど、
逆にそれが不便になる場合もあるからねぇ

さくらでZFSストレージをVPSのファイルサーバに使って大失敗してたけど
あれどんなシステムでどんな失敗だったんだろうな
494 :
名無しさん@お腹いっぱい。
2013/12/14(土) 23:55:38.85
上で上がってたような特定用途の領域を必要なだけFSとして切り出してdedupかけるのが
(メモリ的にも現実的な)本来の用途なわけで、数TB、数十TBのプール全体にdedupかけて、なんてのはアホの極みでしかないな。
1GBくらいのディスクイメージcpして使用領域増えてないわーい、みたいなブログ記事たまに見るけどそんなこと言ってもねぇ・・・
495 :
名無しさん@お腹いっぱい。
2013/12/15(日) 01:01:29.62
さくらの場合はnfsで使っていて1000台ぐらいで性能が頭打ちに
なったとかどっかで見た気がする。
そもそもnfsを使うのが筋が悪かった。
496 :
名無しさん@お腹いっぱい。
2013/12/15(日) 01:33:43.51
特定用途のvm置き場にdedupかけたけど効果はさっぱりだったな。ブロックサイズ固定まではしてみなかったが
さくらはzfsでdedupかけてたのかな?
どちらにせよzfs自体が大規模トラフィックに向いてない気がするな。nfsは構造上小規模向けだろうに
GlusterFSやらの分散型でスケールアウト狙った方が
497 :
名無しさん@お腹いっぱい。
2013/12/15(日) 01:38:34.13
NFSはそもそも共有して意味があるんであって
クライアントが別々にのファイルにアクセスするなら
NFSする意味がないからな
iSCSIの方が良かったんじゃないのかと

cloneで同じ設定のVMを作り出すのは便利だからそこだけうまくやってればねぇ
498 :
名無しさん@お腹いっぱい。
2013/12/15(日) 09:54:37.02
共有してるからvMotionできる
iSCSIよりずっと手軽で管理しやすい
499 :
名無しさん@お腹いっぱい。
2013/12/15(日) 10:44:40.53
それは微妙にzfsとは違う方向から異論が出そうだが、
iscsiの使い勝手が悪い件については賛成。
そりゃnfsでファイル見えてりゃ規模が大きくなればなるほど管理が圧倒的に楽になる。
ただzfsでサブディレクトリ作ってもクライアントから追加でマウントしないと共有が見えない。
Linuxのnfsdで出来てるんだから何とかしろよ絶対便利だろそれorz
500 :
名無しさん@お腹いっぱい。
2013/12/15(日) 11:04:15.45
サブディレクトリ???
501 :
名無しさん@お腹いっぱい。
2013/12/15(日) 17:33:27.78
ファイルシステムのことかな?
そりゃ別だからmountしないと見えない
502 :
名無しさん@お腹いっぱい。
2013/12/15(日) 20:47:49.35
ああ、zfs createで作られるマウントポイントってなんつーの?
zfs create pool/zfs1
zfs create pool/zfs1/zfs2
zfs create pool/zfs1/zfs2/zfs3
みたく階層化たりとか。
Linux系はpool/zfs1をnfs共有しとくとその下に増やしても自動で見えるイメージ
inodeとか誤魔化せば出来るんじゃねーかやってくれよっていう
503 :
名無しさん@お腹いっぱい。
2013/12/15(日) 22:41:29.91
>>502
ふっ、貴様はまだbtrfsを知らないようだな・・・
504 :
名無しさん@お腹いっぱい。
2013/12/15(日) 22:48:48.99
>>502
ZFS用語的にはtype=fliesystemかな? datasetでもいいか

ハードリンクできないから下手なことしたら混乱しそうだけどな
505 :
名無しさん@お腹いっぱい。
2013/12/16(月) 00:20:56.53
階層化たり???
506 :
名無しさん@お腹いっぱい。
2013/12/16(月) 00:29:12.62
btrfsってこれのことですかーっ >_<
http://togetter.com/li/513383

>>504
おお、あれfilesystemっていうのか。>>502みたく階層化して使う場合ってどう表現すればいいんだろ
「filesystemの中にfilesystemをマウントする」とかか。これだと通じるかどうか微妙なラインだが
507 :
名無しさん@お腹いっぱい。
2013/12/16(月) 00:34:52.91
>>506
filesytem単位にmountpointは設定できるからなぁ
defaultでは自動でそのまま階層化されるけどね
508 :
名無しさん@お腹いっぱい。
2013/12/16(月) 15:28:03.50
ZFSの階層構造はプロパティとかの管理上便利ってだけでファイルシステムとしては独立してるんだから
運用上はext4とかの領域作りまくって色んなフォルダにマウントしてるのと変わらん。
>>507の言うようにdefaultだとZFS上の階層構造そのままの位置にマウントするからフォルダ的に扱える気がするだけだな。

dedupを実際に活用できてる現場ってどれくらいあるのかね?
それなりに大きいストレージだと個人レベルじゃ用意できない量のメモリを必要とするし、
それだけのメモリを用意できるストレージだとストレージ自体ももっと大規模で結局メモリ足りないんじゃ?と思ってしまう。
メモリー積んでdedupかけるより、dedupで削減できる容量分のHDD追加した方がコスト的にマシなケースしか浮かんでこない。
509 :
名無しさん@お腹いっぱい。
2013/12/16(月) 16:13:29.19
zfs on Linuxの環境だが既存fsの下層に新規fs作ったらESXi側から見えたよ
エクスポートの設定の問題か

そしてアンマウントできなくなっちまったが
510 :
名無しさん@お腹いっぱい。
2013/12/16(月) 16:59:21.54
>>509 499あたりが書いてるが
Linuxでは可能. vm単位でfs作ってcloneしたら即アクセスできる
Solarisではfs作る度にクライアント側でマウントしないと使えない
511 :
名無しさん@お腹いっぱい。
2013/12/16(月) 17:28:53.06
誠に失礼した
512 :
名無しさん@お腹いっぱい。
2013/12/16(月) 23:26:31.49
NFSv4 mirror mount ってのがあるんですって。
http://docs.oracle.com/cd/E19120-01/open.solaris/817-2271/gfwqw/index.html
図は
Oracle Solaris 11 ZFSを使ってみよう(概要・設計ガイド) - 富士通
http://jp.fujitsu.com/platform/server/sparc/technical/document/pdf/00_ZFS.pdf
のページ40に。この、富士通のzfs文書シリーズ、良いですね。
513 :
名無しさん@お腹いっぱい。
2013/12/17(火) 00:28:29.14
ESXiは5.5になってもNFSv4はまだ使えないですかそうですか
514 :
名無しさん@お腹いっぱい。
2013/12/17(火) 13:19:40.89
zfs on linux以外は糞ということですねそうですね
515 :
名無しさん@お腹いっぱい。
2013/12/17(火) 15:09:43.09
ZFS使おうとして Linux選ぶやつなんか、いるの?
516 :
名無しさん@お腹いっぱい。
2013/12/17(火) 21:36:45.50
>>508
Linux LVM的に言えば
ZPOOL=VG
ZFS filesystem=LV
みたいなもんだからな
別々のLVだからmountも別

NFSクライアント側でハードリンクしたらどうなるかちょっと気になってきた
517 :
名無しさん@お腹いっぱい。
2013/12/21(土) 16:56:55.29
>>515
そらzfs on Linuxが安定したら乗り換える人多いだろうよ
518 :
名無しさん@お腹いっぱい。
2013/12/21(土) 21:18:52.91
ZFS使うためだけにOpenIndianaやFreeBSD選んでる人が結構いそうだからな。
元々がLinux使いならそりゃZFSもLinuxで使えた方が嬉しいだろう。

このスレも9割くらいZFSスレになってるけど、Solaris系で使ってる人半分もいなかったりしてw
519 :
名無しさん@お腹いっぱい。
2013/12/21(土) 23:22:13.32
Linuxが使いやすいとは全く思わないが、使えるデバイスの多さ(ドライバの充実度)が
半端ないからなぁ
520 :
名無しさん@お腹いっぱい。
2013/12/22(日) 00:28:18.14
数は力だよ、アニキ。
521 :
名無しさん@お腹いっぱい。
2013/12/22(日) 10:46:04.53
>>517
すでにかなり安定してるし、0.6.1以降は安定版扱いだよ
522 :
名無しさん@お腹いっぱい。
2013/12/22(日) 11:45:00.62
自称安定版か。
これまでどれほど自称に騙されてきた事か・・・
もう誰も信じない、俺が信じるのはサポート契約だけだ!(死亡フラグ)。
523 :
名無しさん@お腹いっぱい。
2013/12/23(月) 00:03:48.30
Btrfsは非常に安定した安心なファイルシステムです
524 :
名無しさん@お腹いっぱい。
2013/12/23(月) 01:23:40.18
>>523
たしかに、いつまで経ってもちゃんとしたものが出てこないという
意味では安定しまくっている。

ってか、raid5/6程度の実装に何年かかってるんだろうね。
zfsが発表の翌年にはほぼ実用になってたのが異常に早いのかも知れないが。
525 :
名無しさん@お腹いっぱい。
2013/12/23(月) 03:16:53.76
ZFSはオーパーツだからしょうがない。
526 :
名無しさん@お腹いっぱい。
2013/12/24(火) 21:11:41.15
>>524
>>523はレス内容そのままのネタツイートが由来だぞw
ググると安定・安心っぷりがわかる
527 :
名無しさん@お腹いっぱい。
2013/12/24(火) 21:25:04.24
http://togetter.com/li/513383
これか。
こんなネタ知らんわ。
528 :
名無しさん@お腹いっぱい。
2013/12/26(木) 21:15:11.55
>>517
安定しそうにもないから >515 なんだが..w
# Linuxに ZFSを安定に稼働させられるわけがない、という..

>>521
そんなバカなww

>>524
深い泥田に柱は、結局立たないんだよ。
JFSや XFSで実証済みなので鉄板です。
本家の人達が来て大量に地盤改良剤を注入しましたがダメでしたw
途中で意味不明のヨコヤリまで入る始末。議論はケンカ腰でやるもんだそうです(爆笑)
529 :
名無しさん@お腹いっぱい。
2013/12/26(木) 21:23:13.40
>>528
>そんなバカなww
http://groups.google.com/a/zfsonlinux.org/forum/#!topic/zfs-announce/ZXADhyOwFfA
>Today the ZFS on Linux project reached an important milestone with the official 0.6.1 release!
>Over two years of use by real users has convinced us ZoL is ready for wide scale deployment
>on everything from desktops to super computers.
530 :
名無しさん@お腹いっぱい。
2013/12/27(金) 02:54:42.32
nfsの利便性とドライバ充実度のメリットがでかいなぁ
531 :
名無しさん@お腹いっぱい。
2013/12/27(金) 04:47:54.08
LinuxのNFSは正直あまり使いたくない
532 :
名無しさん@お腹いっぱい。
2013/12/27(金) 08:52:06.33
NFSv4はFreeBSDの方が結構バギーだったんじゃない? 今は知らないけど。
あと2000年代前半でzero copy化されてパフォーマンスはその時
かなり上がったよ。
533 :
名無しさん@お腹いっぱい。
2013/12/28(土) 13:46:51.29
本家Solarisでさえ、デフォルトのファイルシステムに採用するのに5年以上かかったのに。
534 :
名無しさん@お腹いっぱい。
2013/12/29(日) 15:42:42.87
>>532
NFSの版とか zero copy入ってるかどうかとかそんな次元の話してるようじゃ
どーしよーもなくてさww
535 :
名無しさん@お腹いっぱい。
2014/01/23(木) 22:02:52.18
ZFSの質問です
2TBのmirrorのpoolにファイルシステムを置いてますが、これが残り23GBくらいになったところで
急激に遅くなってきました

ハード的に強化するとしたら、メモリ?HDD追加?
どちらでしょうか
536 :
名無しさん@お腹いっぱい。
2014/01/23(木) 22:34:23.55
>>535
ZFSは使用量80%未満で使う事が、大前提。これは、メーカーも言っていること。
ZFSはpoolの空き容量が20%切ったところで、遅くなり出す。
10%切ったら、遅くなるだけじゃなく、色々弊害出だして、危機的状況。

大至急HDDの追加、現状poolからのデータ退避をすすめる。
537 :
名無しさん@お腹いっぱい。
2014/01/23(木) 22:53:13.01
今のmirror vdev1つなプールにもう1セットmirrorを追加すれば。
急場はしのげそうですね。
使用量・負荷の均衡が取れるのははるか先でしょうから、
少しずつでも、外へ退避してから書き戻し、していくといいと思います。
538 :
名無しさん@お腹いっぱい。
2014/01/24(金) 01:19:35.47
http://ftp-admin.blogspot.jp/2013/12/zfs.html
ftp-adminの人も同じこと書いてるね.
539 :
名無しさん@お腹いっぱい。
2014/01/24(金) 19:06:00.90
空き容量が残り20%を切ったら、コピーオンライトというのを切ればいいのか
ふむふむ...
540 :
名無しさん@お腹いっぱい。
2014/01/24(金) 21:20:36.42
アッ
541 :
名無しさん@お腹いっぱい。
2014/01/25(土) 18:22:04.86
それを すてるなんてとんでもない!
542 :
名無しさん@お腹いっぱい。
2014/01/26(日) 08:00:38.44
スレ違いだったら申し訳ありません

今までSolarisをまともに使ったことがないので
一から勉強したいのですが、そういった目的の場合
SolarisとOpenSolarisはどちらが向いているでしようか
他OSの経験は公私双方でWindows、RHELあたりを
主に扱ったことがあります
543 :
名無しさん@お腹いっぱい。
2014/01/26(日) 09:22:26.69
犬厨ってのは、なんでクソつまらんコピペをばらまこうとか思えるんだろう?
とっとと精神科なりに入院すればいいのに
544 :
名無しさん@お腹いっぱい。
2014/01/26(日) 10:21:22.99
545 :
名無しさん@お腹いっぱい。
2014/01/26(日) 15:06:54.60
ダミーの dataset 作って、そこに reservation でも設定すれば
空き容量食い尽くすってのは未然に防げるのかな。
546 :
名無しさん@お腹いっぱい。
2014/01/26(日) 15:38:56.59
親FS(pool直下、同名)にrefreservation
547 :
名無しさん@お腹いっぱい。
2014/01/26(日) 19:49:03.06
空き容量なくなってきたら古いsnapshot消して凌いでたわ
548 :
名無しさん@お腹いっぱい。
2014/01/26(日) 21:40:59.90
1分毎のホームディレクトリスナップショットで、
ゴミ箱要らず

気兼ねなくrmできるようになりました...となるのかな?
549 :
名無しさん@お腹いっぱい。
2014/01/26(日) 22:17:10.31
timesliderが15分毎にスナップショット取ってくれるので
時には助かるけど、ゴミ箱も手に入るなら欲しい。
ZFSのsharesmbには無いから、Sambaに浮気したり。
550 :
名無しさん@お腹いっぱい。
2014/01/27(月) 16:16:07.98
>>548
rm対策より上書き対策で助かるけどね
551 :
名無しさん@お腹いっぱい。
2014/01/27(月) 21:45:17.94
zfsにnfsやsmbや統合されてるのはいいんだけど他のと併用する場合にどの程度競合するのか分からなくて怖い
sambaやglusterfsなんかで別途shareした場合安定動作するのか?というのが怖くてzfs内蔵のを使い続けてる
552 :
名無しさん@お腹いっぱい。
2014/01/27(月) 23:14:02.28
同じポート使うから、sambaと共存は無理じゃないの?
553 :
名無しさん@お腹いっぱい。
2014/01/30(木) 19:26:57.63
nfsはOKということ??
554 :
名無しさん@お腹いっぱい。
2014/01/30(木) 19:55:55.29
レイヤー違うもんをごちゃ混ぜに考えてんのか?
何が分からんのかが、分からん
555 :
名無しさん@お腹いっぱい。
2014/01/30(木) 21:15:20.89
今ふと思ったんだけど、raidzでzvol作って、そこで、FAT32やext2みたいな軽量なファイルシステム置けば、
信頼性と高速性を両立できるんじゃないかな?
556 :
名無しさん@お腹いっぱい。
2014/01/30(木) 21:21:51.18
物理的な障害はともかく、ファイルシステムぶっ壊れるのに変わりない気がするがな
557 :
名無しさん@お腹いっぱい。
2014/01/30(木) 22:02:21.76
>>555
ZFSはZFS上の整合性しか取ってくれないが、それで良いか?
ZVOL上のデータなんて、考えてくれないぞ?
つか、ZOVL上でいくら軽いFS動かそうが、下でZFS動いてたら一緒じゃ?
直接ZFS扱えるんなら、ZFSそのまま使えば良いんじゃ無いの・・・
無駄にアホなことやってるようにしか見えん。。。

よく言われることだが、ZFSはハードをけちる為の物じゃないから、
パフォーマンスほしけりゃ、それだけ金かけろって事。
558 :
名無しさん@お腹いっぱい。
2014/01/31(金) 22:42:29.96
OIでglusterfsなんで動くの?
559 :
名無しさん@お腹いっぱい。
2014/01/31(金) 23:09:02.57
>>558
ソースからコンパイルして、動かしてる人はいるぽいよ。
560 :
名無しさん@お腹いっぱい。
2014/02/01(土) 13:30:48.01
compression on + dedup on の500Gを zfs destroy かけた。
コマンドは async_destroyのおかげで即終了。
けど zfs set sharesmb=name= とかいじってたら
NFSクライアントからサーバごと見えなくなり、焦って電源サイクル。
mounting ZFS: 1/nn とか出たまま固まる。
ようやくログインできても動きが怪しい。
その後30分ぐらい iostat で svc_t が5桁台を示してたけど
zpool get の freeing が 0 になったら、完全に回復した。
教訓。大容量destroyはサービス停止時に。asyncに頼らない。
561 :
名無しさん@お腹いっぱい。
2014/02/01(土) 13:36:45.98
compression=lz4は、良いですね。
562 :
名無しさん@お腹いっぱい。
2014/02/01(土) 14:39:39.74
>>545>>546
80%(か90%)の容量でquotaかければいいんじゃないの?
563 :
名無しさん@お腹いっぱい。
2014/02/01(土) 15:35:03.47
>>559
nfsとzfsが競合しないのかそれ
564 :
名無しさん@お腹いっぱい。
2014/02/01(土) 15:57:14.97
>>560
dedupは削除の時に激重になるんだよね
snapshot作ってる時はrmではわからないが
snapshot destroy や zfs destroyで発動する
565 :
名無しさん@お腹いっぱい。
2014/02/01(土) 20:23:45.94
>>562
1. ファイル入れる FS に quota
2. ファイル入れない FS に (ref)reservation

どっちでも目的は達せられる。
ただ、ファイル入れる FS の quota は
別の目的で設定したいこともあるだろうから、
ファイル入れない FS の設定で対応した方が
融通は利きやすいだろう。
566 :
名無しさん@お腹いっぱい。
2014/02/01(土) 20:59:27.92
>>563
NFS共有してない、SMB専用の場所いじってました。

先人の言や、自分でも試してみて、やっぱり
dedup=offに戻すと決めての過程なので、いいんですけどね。
すんごい遅い、途中で再起動しちゃうとより一層遅い。聞いてた通りでした。
567 :
名無しさん@お腹いっぱい。
2014/02/01(土) 21:55:41.05
>>566
zfs自体には本体の冗長性がないからglusterfsでレプリカすればかなり良いのではという思いつきなんだが
いろいろ難しそうだな
568 :
名無しさん@お腹いっぱい。
2014/02/01(土) 22:02:07.90
「本体の冗長性」ってなに?
569 :
名無しさん@お腹いっぱい。
2014/02/01(土) 22:39:54.91
サーバ1台丸ごと死んだ場合の可用性
570 :
名無しさん@お腹いっぱい。
2014/02/02(日) 14:57:02.79
サーバ丸ごと死んだら、さすがのZFSでも、どうにもならんだろ
571 :
名無しさん@お腹いっぱい。
2014/02/02(日) 15:09:08.41
ちょっとは話の流れ読めよw
572 :
名無しさん@お腹いっぱい。
2014/02/03(月) 23:34:23.98
ブートドライブをzfs mirror化するお話を巷で散見しますが、
ふとMBRやgrubもmirror・raidz化できるのかな?なんて思ったりしました
573 :
名無しさん@お腹いっぱい。
2014/02/03(月) 23:39:27.44
http://docs.oracle.com/cd/E23824_01/html/E24456/storage-4.html
The root pool must be created as a mirrored configuration or as a single-disk configuration. A RAID-Z or a striped configuration is not supported.

http://docs.oracle.com/cd/E19253-01/819-5461/ggtia/index.html
Booting From an Alternate Disk in a Mirrored ZFS Root Pool
x86# installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c0t1d0s0
574 :
名無しさん@お腹いっぱい。
2014/02/15(土) 20:31:04.34
ZFSのミラーってセクタ位置まで同一にする保証ってあったっけ?
あるならMBRに使っても問題ないだろうけど、疑問。
575 :
名無しさん@お腹いっぱい。
2014/02/15(土) 20:52:24.69
MBRがファイルシステムに含まれるかどうか、考えれば分かるんじゃね?
576 :
名無しさん@お腹いっぱい。
2014/02/16(日) 23:06:44.42
たしかZFSのブート領域はセクタミラーを保証してた筈。
先頭から512byteまでかな
だけど、BIOSがZFSを理解出来なきゃいけないので、
パソコンでマルチブートするのは難易度高いかと
577 :
名無しさん@お腹いっぱい。
2014/02/17(月) 19:21:00.41
両方のディスクにブート情報書き込まないと起動しなかったような。
578 :
名無しさん@お腹いっぱい。
2014/02/18(火) 22:43:15.48
> だけど、BIOSがZFSを理解出来なきゃいけないので、
ご冗談を。
579 :
名無しさん@お腹いっぱい。
2014/02/25(火) 13:26:40.63
6TB HDD対応してます?
580 :
名無しさん@お腹いっぱい。
2014/03/05(水) 23:09:19.00
OpenIndianaのcifs serverでファイルサーバやってるんですが、このcifs serverって、
samba serverやWindows のファイル共有と違う動作するものなんですかね?
AndroidのES Files explorerやGhost Commanderで接続できないのが
不思議です
581 :
名無しさん@お腹いっぱい。
2014/03/06(木) 13:34:35.48
Sambaの開発方面によると、SMBや CIFSというのは MSの OSによってアホほど
違って、なにもかも実装するのはとてもムリだそうなので、当然違いはあると思うよ。
Sunの時に開発した人達は今でも近いところにいるのかなぁ..
582 :
名無しさん@お腹いっぱい。
2014/03/07(金) 22:12:41.98
そうですか
oi付属のcifs serverよりも、Sambaに入れ替えた方が筋が良いのかな...
583 :
名無しさん@お腹いっぱい。
2014/03/08(土) 00:17:19.94
>>582
カーネルモジュールであるゆえの絶対性能を取るか互換性を取るかのトレードオフだと思う
584 :
名無しさん@お腹いっぱい。
2014/03/08(土) 01:20:18.75
cifsはmsがライセンスしないといろいろ正しい実装ができないようで、
sambaはそれゆえに互換性の問題で、頭を悩ませてきた

solarisのcifsは、msからライセンスを受けてるものかもしれない。

ちなみに、sambaみたいにNTFSのACLを強引にUnix permissionにするのではくて、
zfs aclにそのまま入るので、互換性はたかいはず。
問題はillumosが、fork後にどこまで追いかけてるかだな。
585 :
名無しさん@お腹いっぱい。
2014/03/08(土) 02:47:18.49
ファイルサーバでSolaris 11使ってるけど、
ES Files explorerから問題なく使用できてるよ。
586 :
名無しさん@お腹いっぱい。
2014/03/13(木) 19:09:40.07
>>585
それはoiを捨てろという託宣ですかね
587 :
名無しさん@お腹いっぱい。
2014/03/30(日) 08:49:19.76
初歩質問ですみません、oiのCUIとGUIの切り替えってどうやってやればいいのでしょうか?
588 :
名無しさん@お腹いっぱい。
2014/03/30(日) 10:04:44.25
CUI: svcadm disable gdm
GUI: svcadm enable gdm
589 :
名無しさん@お腹いっぱい。
2014/03/30(日) 14:13:53.66
>>588
できました。
ありがとうございます。

ちなみにですが、oiはCtrl+F1みたいなCUI GUI切り替えのショートカットってないのでしょうか?
590 :
名無しさん@お腹いっぱい。
2014/03/30(日) 16:49:40.11
591 :
名無しさん@お腹いっぱい。
2014/03/30(日) 23:05:34.72
>>590
すみません、、、ダメだったっス。
592 :
名無しさん@お腹いっぱい。
2014/04/04(金) 01:38:42.73
>>591
グラフィックスカードのデバイスドライバが入っていないときに
Alt+Ctrl+F1 (CUIへ)
Alt+Ctrl+F7 (GUIへ)
が効かずにフリーズしてしまうのを経験したことあるよ
(nvidiaから)ドライバ落として入れたら使えるようになたよ
593 :
名無しさん@お腹いっぱい。
2014/04/09(水) 01:14:38.11
>>592
なるほど、たぶんうちのはネットブックでやってるのでドライバとかその辺の関係でダメなんでしょうね。
ありがとうございました。
594 :
名無しさん@お腹いっぱい。
2014/04/30(水) 18:45:47.66
ノートPCにSolarisいれてyamahaのルーターとリモートVPN接続したいと考えています
Solarisを l2tp ove ipsec のクライアントにするにはどのソフトウェア使うのがいいですか?
LinuxやAndroidからの接続には成功しておりますが、SolarisはVPNサーバーにする情報ばかりで
クライアントにするための情報を見つけることができませんでした。
なにとぞ、よろしくお願いしマンモス
595 :
名無しさん@お腹いっぱい。
2014/04/30(水) 19:08:06.53
596 :
名無しさん@お腹いっぱい。
2014/05/17(土) 23:13:08.61
2TBのmirror poolから3TBのpoolにrsyncで転送しているけど、
rsync開始してから半日かかるけど、随分時間がかかっている。
もちろん、非力なマシンを割り当ててるんで、そのせいもあるんでしょうけど、
やはりZFSは読み書きが他のFSと比べて遅いんですかね
597 :
名無しさん@お腹いっぱい。
2014/05/17(土) 23:54:28.40
zfs send して receive とか zpool attach して detach とかしないのは宗教的な理由なのかな?
598 :
名無しさん@お腹いっぱい。
2014/05/18(日) 00:05:34.09
send/receiveはいいとして、ファイル転送にattach/detachを勧めるのは
それこそアヤシイ宗教って感じがして気持ちが悪い。
599 :
名無しさん@お腹いっぱい。
2014/05/18(日) 15:26:40.43
zfs recv -F って、プールにあるファイルシステム破壊してくれるんか
少量だけど、ファイルあったのになぁ
復元ってできないんだよね?
600 :
名無しさん@お腹いっぱい。
2014/05/18(日) 17:40:36.27
バックアップがなければね
601 :
名無しさん@お腹いっぱい。
2014/05/19(月) 22:26:13.23
3TBのHDDにpool作って、ファイルコピーしたあと、PCをリブートしたら
起動しなくて、別のBEで起動したら、poolが↓状態になってました

zpool status
pool: tank3TB
state: FAULTED
status: One or more devices could not be used because the label is missing
or invalid. There are insufficient replicas for the pool to continue
functioning.
action: Destroy and re-create the pool from
a backup source.
see: http://illumos.org/msg/ZFS-8000-5E
scan: none requested
config:

NAME STATE READ WRITE CKSUM
tank3TB FAULTED 0 0 0 corrupted data
c9d1 FAULTED 0 0 0 corrupted data

このpoolは、もうダメ?
ただ、このpool名はなぜか、古いpool名なんだよな...
poolを作った時とは別のBEで起動しているから、不整合になっているんですかね?
602 :
名無しさん@お腹いっぱい。
2014/05/19(月) 23:46:32.46
zpool export して
zpool importしたら別のpool名でpoolが見えたので
その名前でzpool import "別のpool名"したら
元通りになりました

200GBくらい吹っ飛んだと思ってのが元通りになったので、
明日は良いことありそうです
603 :
名無しさん@お腹いっぱい。
2014/05/21(水) 00:25:22.65
そういや特定ファイルだけsendってできんもんかね
604 :
名無しさん@お腹いっぱい。
2014/05/21(水) 20:58:25.17
user@openindiana:/pool/zfs$ ls
test.txt
user@openindiana:/pool/zfs$ zfs snapshot pool/zfs/test.txt@today
oi@openindiana:/pool/zfs$ zfs list

こんな感じ?
605 :
名無しさん@お腹いっぱい。
2014/05/22(木) 21:55:00.64
snapshot取ってから特定ファイル以外消してもっかいsnapshot取ってsendして最初のsnapshotにrollback -f。意味は無いが。
606 :
名無しさん@お腹いっぱい。
2014/05/25(日) 19:46:26.48
それだとcloneしたほうがいいんじゃね
ってどっちみちファイル削除に時間かかりすぎて現実的じゃないなー
607 :
名無しさん@お腹いっぱい。
2014/06/30(月) 23:37:16.16
sshで外部からログオンする時、
パスワード聞かれるまで時間がかかるのですが、なんででしょう
608 :
名無しさん@お腹いっぱい。
2014/06/30(月) 23:53:06.17
>>607
DNSチェックに行った時にホスト名の解決が出来ないときにそうなる。
面倒ならsshdの設定で
> UseDNS no
と設定すればチェックしなくなる、気がする。
609 :
名無しさん@お腹いっぱい。
2014/07/01(火) 05:47:17.09
sshで外部からログオンする際の注意事項があります。
コンピュータのCPUが何ビットであるか調ベておく事が大切です。

32ビットCPUを搭載したコンピュータには、
32ビット用のsshをインストールすること。

64ビットCPUを搭載したコンピュータには、
64ビット用のsshをインストールすること。

これを間違えれば素早いログオンができません。
610 :
名無しさん@お腹いっぱい。
2014/07/06(日) 07:16:18.80
comstarでiscsi targetを作る時の話で質問。(fcでも同じだと思うけど)

lun 1,2,3,4をhostA,B,Cに公開する場合に
・Aにはlun 1,2だけを見せたい
・Bにはlun 1,3だけを見せたい
・Cにはlun 1,4だけを見せたい
上記のようなことをやりたいときはAだけのhost groupとBだけのhost group、Cだけのhost groupを作ってやって
1-A,2-A
1-B,3-B
1-C,4-C
みたいなviewを作るしかないんだよな?
個別のhost groupとは別にABCのhost groupが作れればまだいいんだけどな。
hostとlunが増えた場合を考えるとうんざりする
611 :
名無しさん@お腹いっぱい。
2014/08/10(日) 12:06:02.77
openindiana興味あるんですけど、
出た頃はoi開発者とかユーザーとかけっこう人がいて活発だったけど今はどうですか?
ユーザーはともかくoi開発者も減ったりしてますか?

oi入れてイジってるうちに開発打切りとかフェードアウトで消滅とかになったら嫌だなと思って。
612 :
名無しさん@お腹いっぱい。
2014/08/11(月) 09:46:08.14
oiは、147までは調子よかったと思うけど、Illumosベースの 151以降数字上がって
ないね..
613 :
名無しさん@お腹いっぱい。
2014/08/11(月) 14:33:52.64
oi hipsterってのがあるらしい。hipsterじゃないのはこないだの BIND穴も
埋まってないそうな..

Goslingが拾って NeWS再実装してくれるといいんだがw
614 :
名無しさん@お腹いっぱい。
2014/09/05(金) 09:45:07.28
オープンソラリスじゃなくてフリーソラリスというのがあるとききました。
こちらの方がオープンソラリスよりも強いですか?
おすすめのディストロビューションをおしえてください。
615 :
名無しさん@お腹いっぱい。
2014/09/05(金) 18:19:00.87
>>614
RedHat Enterprise Linux+有償サポートが鉄板だと思う
616 :
名無しさん@お腹いっぱい。
2014/09/05(金) 18:31:49.57
冗談だろ。RHELなんてどんだけイタい目にあわされたか..
617 :
名無しさん@お腹いっぱい。
2014/09/05(金) 18:31:52.20
それもソラリスなんですかぁ? (RHELなら知ってますけど)
618 :
名無しさん@お腹いっぱい。
2014/09/09(火) 17:46:18.98
SolarisはDOSの操作性を超えてますか?
619 :
名無しさん@お腹いっぱい。
2014/09/10(水) 14:46:38.77
先に「DOSの操作性」を定義してくれ。Appleが Mac出した頃に言ってたやつか?
620 :
名無しさん@お腹いっぱい。
2014/09/10(水) 14:51:22.21
>>619
コピペにかまうな。
621 :
名無しさん@お腹いっぱい。
2014/09/16(火) 17:53:51.75
もうそろそろ、armスマホ対応したソラリスカーネルのAndroid(?)が発表されて、
Oracle純正の高性能Java runtimeで今出てるアプリをサクサク...
なんてのを夢見てるんだがなぁ
622 :
名無しさん@お腹いっぱい。
2014/09/17(水) 05:52:45.64
寝言は寝て言いやがれですぅ
623 :
名無しさん@お腹いっぱい。
2014/09/17(水) 07:43:52.94
Oracle純正のJREが安定してて高性能という幻想
624 :
名無しさん@お腹いっぱい。
2014/09/17(水) 10:46:20.33
Googleの方がいいものを作れるに違いないという幻想
625 :
名無しさん@お腹いっぱい。
2014/09/17(水) 17:44:50.10
Googleは大御所オールスターズだけど最後の詰めが甘いという..
626 :
名無しさん@お腹いっぱい。
2014/11/03(月) 12:42:41.95
MS-DOSならIO.SYSとMSDOS.SYSが読み込まれてからCONFIG.SYSが順に読まれますが

OpenSolarisだとgrubからloginブロンプトまでいったいいくつのファイルが順に読まれてるんでしょうか?
9801の頃は書籍も読んだんですけどUNIXは派閥がありすぎてどれを読めばよいかわからなかったので未だに知りません
627 :
名無しさん@お腹いっぱい。
2014/11/03(月) 21:59:10.22
ロートルの人生詰んだ悲哀漂うコピペかな
628 :
名無しさん@お腹いっぱい。
2014/11/04(火) 13:06:17.14
jarisってもう無いの?誰も引き継いでない?
629 :
名無しさん@お腹いっぱい。
2014/11/04(火) 17:17:25.75
インストールされた後だと、インストール時にデバイス検知して保存しといた
定義ファイル読んでデバイスモジュールロードして、それから initが
/etc/inittab読んで、じゃなかった?
古い BSDだと init が /etc/rcを実行する。端末の定義は /etc/ttys。
サービスという意味では inetdの定義も見ておく。とか。
630 :
名無しさん@お腹いっぱい。
2014/11/04(火) 17:24:31.58
>>629
どれへのレス?
631 :
名無しさん@お腹いっぱい。
2014/11/04(火) 17:37:15.05
新規ひとりごとです
632 :
名無しさん@お腹いっぱい。
2014/11/04(火) 17:54:15.21
inittabも形骸化してるよな、アダムのせいでw
633 :
名無しさん@お腹いっぱい。
2014/11/04(火) 22:03:18.92
>>628
割と前になくなった
634 :
名無しさん@お腹いっぱい。
2014/11/04(火) 23:01:22.07
あっという間になくなったな
635 :
名無しさん@お腹いっぱい。
2014/11/04(火) 23:49:09.79
なんでjarisって消えたの?
636 :
名無しさん@お腹いっぱい。
2014/11/05(水) 09:28:23.19
Looking Glassは?
637 :
名無しさん@お腹いっぱい。
2014/11/05(水) 09:40:50.32
HotJavaってもう無いの?誰も引き継いでない?
638 :
不明なデバイスさん
2014/11/05(水) 19:27:44.39
ジャワカレーはバーモントカレーよりホットな味付けだな。
639 :
名無しさん@お腹いっぱい。
2014/11/05(水) 19:29:57.05
OpenWindowsってもう無いの?誰も引き継いでない?
640 :
名無しさん@お腹いっぱい。
2014/11/05(水) 20:17:45.68
Java Desktop Systemってどうなった?
641 :
名無しさん@お腹いっぱい。
2014/11/05(水) 20:21:11.14
Wabiってもう無いの?誰も引き継いでない?
642 :
名無しさん@お腹いっぱい。
2014/11/06(木) 02:15:08.67
俺の嫁はいつ現れるの?
643 :
名無しさん@お腹いっぱい。
2014/11/06(木) 04:06:35.43
老害の集いになっとる

>>642
ご愁傷様
644 :
名無しさん@お腹いっぱい。
2014/11/06(木) 05:46:52.91
俺の孫はいつ生まれるの?
645 :
名無しさん@お腹いっぱい。
2014/11/06(木) 11:04:33.37
jarisは一度ダウソしたことがあるがMsofficeがユンユン動くのだけは良かった。
646 :
名無しさん@お腹いっぱい。
2014/11/06(木) 11:25:54.37
仮想コンテナの共通項が IBM PCだなんて、ほんと悪い冗談だよ。
647 :
名無しさん@お腹いっぱい。
2014/12/07(日) 17:08:02.13
横から失礼します。
他PCから取り外して来たHDDで、zpool importしたら、
下のメッセージが出たんですが、
次はzpool import tank -fすればいいんですよね?



pool: tank
id: ***********
state: ONLINE
status: The pool was last accessed by another system.
action: The pool can be imported using its name or numeric identifier and
the '-f' flag.
see: http://illumos.org/msg/ZFS-8000-EY
config:

tank ONLINE
c5t5d0 ONLINE
648 :
名無しさん@お腹いっぱい。
2014/12/07(日) 17:34:42.79
はい
649 :
名無しさん@お腹いっぱい。
2014/12/07(日) 19:31:44.52
>>648
ありがとうございます。
zpool import tank -fしましたら、
今度はコマンドがいつまでも終わりません。
/dev/dsk/c5t5d0は、3TBなんですが、どれくらいの時間でコマンドが終了するのが普通なんでしょうか?
650 :
名無しさん@お腹いっぱい。
2014/12/07(日) 21:46:40.44
>>649
何度も(ほとんどの場合プール名でなく id 指定で) import してきましたが、瞬時です。
正常シャットダウンしたクリーンなpoolではないのかな?

大量削除中に強制電源断したときは、ブートに(mountされるまで)数時間待ったものですが。
651 :
名無しさん@お腹いっぱい。
2015/01/05(月) 00:16:47.51
zpool scrubしたら、
とあるMirror poolにこんなメッセージが出てたんだけど、
HDDよりマザボがおかしいのかな

scrub repaired 8K in 12h9m with 0 errors on Sun Jan 4 17:00:37 2015
config:
652 :
名無しさん@お腹いっぱい。
2015/01/17(土) 12:22:41.50
SmartOSって、それ自体や設定ファイルはUSBメモリ上にあって、ZFSはKVMのイメージだけに使われるという理解であってる?
その場合、そのUSBメモリのバックアップてどうしたらいいのだろ?
653 :
名無しさん@お腹いっぱい。
2015/01/17(土) 22:24:28.53
バックアップが必要なデータをUSBに置かなければいいだろ。アホか。
654 :
名無しさん@お腹いっぱい。
2015/02/21(土) 15:28:54.88
ここ生きてるの?
655 :
名無しさん@お腹いっぱい。
2015/02/28(土) 21:56:42.60
OpenSolarisってPCパーツ屋で売ってるマザボで動くんだっけ?
サーバー屋さんから買わないとダメかな
656 :
名無しさん@お腹いっぱい。
2015/02/28(土) 22:05:39.08
最近のOiとかOmniとかなら昔ほどはパーツ選ばないよ
新しすぎるデバイス(USB3コントローラとか)やチップセットは怪しくなるので
一世代前ぐらいの構成が無難なのはSolaris系に限らずオープン系OSの定石だけど
657 :
名無しさん@お腹いっぱい。
2015/03/06(金) 22:55:46.70
>>655
保証はできないけど大概のPCでほぼ確実にブートすると思うよ
実用的に使おうと思えばオンボNICの実績の有無さえ注意しておけばおk
後で互換性のあるNICを増設するつもりならそれこそマザーは何でもいいんじゃねえかな
658 :
名無しさん@お腹いっぱい。
2015/05/07(木) 01:08:01.85
FreeBSDやLinuxで作成したzfsプールって認識できます?
HDDを繋いてしばらく放置してますが一向に認識される気配がない
659 :
名無しさん@お腹いっぱい。
2015/05/07(木) 21:36:40.06
インポートしてみれば?
660 :
名無しさん@お腹いっぱい。
2015/05/08(金) 00:25:29.29
FDISK的なアレつかSMI的なそれは無視して、GPT的なアレだとすると、FreeBSDだとtypeが
freebsd-zfs とかになるんで、普通には認識されない気がする。Linuxは知らん
gpartとかでアレコレしても、zpool versionが今のFreeBSDとは合わないんじゃないかな
もちろん、createの仕方にもよるだろうけど。あとLinuxは知らん
661 :
名無しさん@お腹いっぱい。
2015/05/08(金) 10:01:35.40
zfs on linuxだとsolarisからのimportはいけたけど逆はNGだったはず
zpool versionがZoLだと5000とかになってるんだよね(zfsOSXとかのopenZfs準拠のシステムも同じ)
662 :
名無しさん@お腹いっぱい。
2015/06/08(月) 23:10:26.61
せめてraidzからz2に簡単に移行できないもんかね
663 :
名無しさん@お腹いっぱい。
2015/10/22(木) 22:55:18.32
☆ 日本の核武装は早急に必須ですわ。☆
総務省の『憲法改正国民投票法』、でググってみてください。
日本国民の皆様方、2016年7月の『第24回 参議院選挙』で、日本人の悲願である
改憲の成就が決まります。皆様方、必ず投票に自ら足を運んでください。お願い致します。
664 :
名無しさん@お腹いっぱい。
2015/10/23(金) 05:42:58.03
SolarisでUNIXを覚えた君たちへ

君たちが悪いわけじゃないんだよ
君たちが覚えたSolarisの将来が無かっただけ
当時の社会が悪かっただけ
君たち一人ひとりが悪いわけじゃないんだよ

だから自分を責めないで
社会と向き合ってください
そうすればきっと気が付くはず
君たちのSolarisの知識が無用なのだということに
君たちの存在自体が社会の足枷だということに
665 :
名無しさん@お腹いっぱい。
2015/10/25(日) 06:30:52.16
OpenIndianaでFCターゲット作ろうと思ってますがストレージプールを
2TBまでしか認識しないってまじですか?
666 :
名無しさん@お腹いっぱい。
2015/10/25(日) 09:18:05.59
4TBのHDDを初期化しようとしているのですが、465GBしか認識されていないようです。
4TBのHDDを初期化する方法を教えてください。
よろしくお願いします。
203KB

lud20160526215738
このスレへの固定リンク: http://5chb.net/r/unix/1337411922/
ヒント:5chスレのurlに http://xxxx.5chb.net/xxxx のようにbを入れるだけでここでスレ保存、閲覧できます。

TOPへ TOPへ  
このエントリをはてなブックマークに追加現在登録者数177 ブックマークへ



全掲示板一覧 この掲示板へ 人気スレ | Youtube 動画 >50 >100 >200 >300 >500 >1000枚 新着画像

 ↓「OpenSolaris/Illumos (OpenIndiana, etc.) 6」を見た人も見ています:
【Debian】 Nexenta OS 【OpenSolaris】
【REGEND,N46】NSHINO NANASE Support&Cheering Thread. Hole of tiger light cat☆Lesson25(Extracurricular class.B)
【Omnisphere】Spectrasonics 【Trilian】
小池百合子2.0「Wearing masks, washing hands and social distancing are very important to prevent a second waveでございます」
serial experiments lain
serial experiments lain総合
serial experiments lain lif.61
docomo Xperia PLAY SO-01D Part.9
docomo Xperia PLAY SO-01D Part.9
Serial experiments lain途中まで見たけど
GT Legends - FiA Historic Racing Game LAP14
PS版 serial experiments lain lif.07 [無断転載禁止]
Apex Legends Global Series Summer Circuit Playoffs
「serial experiments lain」形は違えど、似たような現実になっちゃったよね
【画像】 「Serial experiments lain」のゲーム版が恐ろしい値段に・・・
【PR】月の美兎と『serial experiments lain』を観る企画 7月12日18時45分〜
locally noetherian regular flat surfaces over a Dedekind scheme
docomo Xperia A SO-04E part57 [無断転載禁止]&#169;2ch.net [無断転載禁止]
serial experiments lainとかいうアニメを見たんだが名作すぎた… 今の深夜アニメがどれだけ低レベルか改めて思い知ったわ
【Appmedia OPENREC ALsee 癒着 シャドバ賭博不正行為マトモ 淫行ぱんだ=田川まさひろ 盗撮未成年飲酒ことる 枕営業 水沢柚乃 NAOKA】3880【シャドウバース】 [無断転載禁止]©2ch.net [無断転載禁止]
Sony Mobile 次世代Xperia 総合152
Sony Mobile 次世代Xperia 総合134
Sony Mobile 次世代Xperia 総合243
Sony Mobile 次世代Xperia 総合237
Sony Mobile 次世代Xperia 総合248
Sony Mobile 次世代Xperia 総合178
Sony Mobile 次世代Xperia 総合176
Sony Mobile 次世代Xperia 総合203
Sony Mobile 次世代Xperia 総合201
Sony Mobile 次世代Xperia 総合179
Sony Mobile 次世代Xperia 総合159
Sony Mobile 次世代Xperia 総合168
Sony Mobile 次世代Xperia 総合171
【sop】Arsenal vs. Sunderland [無断転載禁止]
Illustration of this lady being squeezed by a giant snake
Android TV総合スレ Part1【Air Stick/BRAVIA/SHIELD TV/Nexus Player/etc...】 [無断転載禁止]
【DFFOO】DISSIDIA FINAL FANTASY OPERA OMNIA part53【ディシディア】 [無断転載禁止]©2ch.net [無断転載禁止]
【DFFOO】DISSIDIA FINAL FANTASY OPERA OMNIA part70【ディシディア】 [無断転載禁止]©2ch.net [無断転載禁止]
【DFFOO】DISSIDIA FINAL FANTASY OPERA OMNIA part52【ディシディア】 [無断転載禁止]©2ch.net [無断転載禁止]
【DFFOO】DISSIDIA FINAL FANTASY OPERA OMNIA part122【ディシディア】 [無断転載禁止]©2ch.net [無断転載禁止]
【DFFOO】DISSIDIA FINAL FANTASY OPERA OMNIA part158【ディシディア】 [無断転載禁止]©2ch.net [無断転載禁止]
【DFFOO】DISSIDIA FINAL FANTASY OPERA OMNIA part247【ディシディア】 [無断転載禁止]©2ch.net [無断転載禁止]
【DFFOO】DISSIDIA FINAL FANTASY OPERA OMNIA part139【ディシディア】 [無断転載禁止]©2ch.net [無断転載禁止]
【DFFOO】DISSIDIA FINAL FANTASY OPERA OMNIA part219【ディシディア】 [無断転載禁止]©2ch.net [無断転載禁止]
【DFFOO】DISSIDIA FINAL FANTASY OPERA OMNIA part111【ディシディア】 [無断転載禁止]©2ch.net [無断転載禁止]
【Appmedia 田川雅弘 田川健介 枕営業 江島知之 ALSee OPENREC 癒着 盗撮 上付き ことる】Shadowverse シャドウバース 4077【むじょる 浦邊 毅 未成年淫行 】[無断転載禁止]©5ch.net [無断転載禁止]
https://twitter.com/plobiopetcrinic" target="_blank">https://twitter.com/plobiopetcrinic
https://twitter.com/plobiopetcrinic" target="_blank">https://twitter.com/plobiopetcrinic
https://twitter.com/plobiopetcrinic" target="_blank">https://twitter.com/plobiopetcrinic
【オリジナル】Nils Petter Molvaer【ヘタウマ】
for a deletion systems development person
【Pillars of Eternity】Obsidian総合【Tyranny】
【10円ハゲの】A.C. Milan #10本田圭佑 panki 1898【HOPPEN】 [無断転載禁止]
【LC】LASTCROPS/CROPPERS/WILDSWANS part14【WS】
"WARNING!" Early preparations for Typhoon Hagibis recommended (Oct. 10, 22:10)
Metamatics/Norken/Nacht Plank
open2chExtenderでopen2chや2chscや5chnetの画像
open2chExtenderでopen2chや2chscや5chnetの画像
open2chExtenderでopen2chや2chscや5chnetの画像
open2chExtenderでopen2chや2chscや5chnetの画像
open2chExtenderでopen2chや2chscや5chnetの画像
【旧FreeNAS】 OpenMediaVault Part1 【Linux】
windows10.koushin.sitara.nihongo.utenai.tasukete:(
日本のブラウザ Sleipnir Lunascape Tungsten Kinza [無断転載禁止]
日本企業が開発しているブラウザ Sleipnir Lunascape Tungsten Kinza [無断転載禁止]

人気検索: 女子 女子小学生裸画像 まんこ まんこ 中学生 中学生 パン 2015 アウあうロリ画像 パンチラ teen 美少女 タイトスカートフェチ 2015 アウ原田美枝子
05:41:59 up 5 days, 21:47, 4 users, load average: 9.83, 6.12, 5.42

in 0.018487215042114 sec @0.018487215042114@0b7 on 112519