2012年12月31日月曜日

Step 8 : 2.5TB RAID 1 を追加

さあサーバー移行もぼちぼち完了が近づいてきました。ここから先はほぼ技術的な困難はないと思われます。
  1. 7で空いた 2.5TB HDD x 3 のうち2本をサーバーにつけ、RAID 1 で VG に追加
です。どっちかというと物理的な結線のほうに時間がかかる作業。問題なく完了し、起動。
# mdadm --create /dev/md4 --level 1 --raid-devices 2 /dev/sdc /dev/sdd
これまでのディスクと違い、全く同じサイズの2つのディスク全体を RAID 1 にしてしまってかまわないので、パーティション等は切らずにいきなり追加できます。あ、でもこれってどっちかのディスクが壊れたときに同じサイズのディスクを用意しないとじゃないと復旧できないのかな・・・?まあでもおそらく新しいディスクのほうが大きなサイズで、それに同じサイズのパーティションを用意してそれをメンバにすればよさそうな気はしますね。なのでこのまま続行です。 vgdisplay によるともともと以下のような状態でしたが
  VG Size               1.56 TiB
  PE Size               4.00 MiB
  Total PE              409218
  Alloc PE / Size       409218 / 1.56 TiB
  Free  PE / Size       0 / 0  
以下のコマンドで追加します。
# pvcreate /dev/md4
# vgextend vg_data /dev/md4
結果は
  VG Size               3.84 TiB
  PE Size               4.00 MiB
  Total PE              1005382
  Alloc PE / Size       409218 / 1.56 TiB
  Free  PE / Size       596164 / 2.27 TiB
と無事増量成功です。

あ、そうだ、次の Step 9 以降ですが、秋葉原に行ったときに2Tのディスクを買おうと思ってレジに並んだところつい3Tを買ってしまったのでまた改定しますw

  1. もともと VG に入っている 1.5TB の HDD を抜き、新たに 3.0TB と交換
  2. 開発機から 1.0TB のディスクを抜いて刺し、3.0TB の RAID 1 を VG に追加
  3. 開発機に 2.5TB、1.5TB を刺し、1.5TB RAID1 + 1.0TB にする
これが終わると自宅サーバー上には合計 6.5TB RAID 1 のディスクアレイの完成です。何に使うんだ!w

HDDのチェック

フォロワーさんが CrystalDiskInfo のキャプチャをアップされていてそれを見てあわててディスクの状況を見てみようと思いまして。Linux だとどうするのか調べたところ、smartctl なるコマンドが有用だそうです。


# smartctl -a /dev/sda
smartctl 5.42 2011-10-20 r3458 [x86_64-linux-2.6.32-279.19.1.el6.x86_64] (local build)
Copyright (C) 2002-11 by Bruce Allen, http://smartmontools.sourceforge.net

=== START OF INFORMATION SECTION ===
Model Family:     Western Digital Caviar Green (Adv. Format)
Device Model:     WDC WD20EARS-00MVWB0

(snip)

ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x002f   200   200   051    Pre-fail  Always       -       0
  3 Spin_Up_Time            0x0027   253   205   021    Pre-fail  Always       -       1025
  4 Start_Stop_Count        0x0032   100   100   000    Old_age   Always       -       548
  5 Reallocated_Sector_Ct   0x0033   200   200   140    Pre-fail  Always       -       0
  7 Seek_Error_Rate         0x002e   200   200   000    Old_age   Always       -       0
  9 Power_On_Hours          0x0032   083   083   000    Old_age   Always       -       12921
 10 Spin_Retry_Count        0x0032   100   100   000    Old_age   Always       -       0
 11 Calibration_Retry_Count 0x0032   100   100   000    Old_age   Always       -       0
 12 Power_Cycle_Count       0x0032   100   100   000    Old_age   Always       -       523
192 Power-Off_Retract_Count 0x0032   200   200   000    Old_age   Always       -       32
193 Load_Cycle_Count        0x0032   011   011   000    Old_age   Always       -       567391
194 Temperature_Celsius     0x0022   109   099   000    Old_age   Always       -       41
196 Reallocated_Event_Count 0x0032   200   200   000    Old_age   Always       -       0
197 Current_Pending_Sector  0x0032   200   200   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0030   200   200   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x0032   200   200   000    Old_age   Always       -       0
200 Multi_Zone_Error_Rate   0x0008   200   200   000    Old_age   Offline      -       0
とりあえずやばそうなのはない・・・よね?w
ほかのディスクも同様な結果でした。本当はこれを定期的に実行して値が変わったらお知らせとかしないといけないんでしょうね。

mysql の移行

インストール
# yum install mysql-server
# service mysqld stop
構成
# vi /etc/my.cnf
データディレクトリの移動と
[mysql]
default-character-set = utf8
の追加。動いているマシンからデータのコピー。終わったら
# service mysqld start
% mysql -p <database_name>
などで確認。

2012年12月27日木曜日

Step 7' : ハードウェア更新!

この後HDDを開発機からサーバーに移すので、現状4本ささっているところにマザーボードは5個しか SATA の口がないのでハードウェアを更新することにしました。

CPU     : Intel Core i7 3770
M/B     : ASRock Z77 Pro4
RAM     : 8GBx2 1600MHz

SATAの数(8個)とスレッド数(8本)とメモリ容量あたりを優先的に考えて、それに経済性を考えてこの構成としました。

さっそく構成して起動。うまくいきました。しかしネットワークはつながりません。あれ、普通はそのままうまくいくような・・・、と思ったら NetworkManager ではなく network にしたんでしたね。そのままだと MAC アドレスすらわからないので、
# service network stop
# service NetworkManager start
とすると GNOME で上のほうにネットワーク接続のアイコンが現れます。その状態で
# ifconfig
で MAC アドレス等を収集。/etc/sysconfig/network-script にいき、ifcfg-eth0 をコピーし、ifcfg-eth1 にして適宜内容を編集。そして
# service NetworkManager stop
# service network start
おおお、無事接続できました! ではどの程度効果があったのか・・・。あまりベンチマークとかとらないのでいい題材がなく、とりあえず動画のエンコードで試してみることにしました。あくまでも参考程度にお願いします。1分の 1080i で撮られた MPEG2 の動画を ffmpeg で H.264 にエンコードするパフォーマンスを計ってみました。とりあえず差が見れればいいのでコマンドとかは適当に。4スレッドで実行します。 まず更新前は
2m44.006s
でした。それが更新後は
1m42.484s
1分ちょっと早くなりました。これはなかなか。それに前は4コアだったのですが、今回は4コアの Hyperthreading なので8スレッドで処理する意味もあります。なのでスレッド数を8にすると
1m10.046s
おお、これはだいぶ早くなりましたね。というか再生時間にかなり近くなってきてかなりいい感じかと。うまくいってよかったです。

ffmepg を入れる

この後の記事で使う ffmpeg を入れてみます。

前は違うところだったような記憶もありますが、現在はここなんですかね。ここから CentOS 6 用の RPM、今だと rpmforge-release-0.5.2-2.el6.rf.x86_64.rpm を wget 等で落としてきます。

・・・しかしもう2年も更新されてないようだし、ソースからコンパイルしたほうがよさそうですね。それは後ほどゆっくりやる予定です。

# rpm -ivh rpmforge-release-0.5.2-2.el6.rf.x86_64.rpm
# yum install ffmpeg
とりあえずこれだけでインストールは完了です。

2012年12月26日水曜日

Step 6-7 開発機のデータを移動してRAID 5を解除

さてようやく Step 6 と 7 も終わりました。おさらいですが
  1. 4で余っている領域を使って RAID 1 を構成、VG/LV を作成
  2. 開発機の RAID 5 上にあるデータを移動し、RAID 5 を解除
です。

まず Step 6 ですが、Step 1-4をやったときと同様のコマンドで実行できますので省略。mdadm、pvcreate, vgcreate, lvcreate, mkfs.ext4, e2label でマウントです。そこをちょっと前に書いたように samba でローカルネットに公開しておきます。

Step 7 はまた単純にコピーです。時間がかかるけどひたすらコピー。終わったら RAID 5 を解除。これはさすがに緊張しますねw
マウスはキャプチャされてませんが「ボリュームの削除」をクリックして消すと・・・
このように”普通の”ディスクとなります。

2012年12月24日月曜日

IntelliJ IDEA

いろんなところで絶賛されてる IDE である IntelliJ IDEA を一度使ってみたいなぁと思っていたら終末セールとやらで75%引きだったので買ってみました。トライアルとかだとどうせろくに評価しないので「せっかく買ったんだから使ってみる」の精神で試しますw

で、注文の日は殺到していたらしく当日も数回サーバーが高負荷ではじかれましたが、なんとか注文できまして。2日後に「注文を受け付けました」的なメールがやっと届いて、その翌日ようやくライセンスが届きました。じらされましたw

まだ何にも使ってないですが、とりあえずインストールしてみたので魚拓。
とりあえず起動シターw

2012年12月23日日曜日

Samba の設定

Samba の設定

# yum install samba
# pdbedit -a <user_id>
# vi /etc/samba/smb.conf
# /etc/rc.d/init.d/smb start
# /etc/rc.d/init.d/nmb start
# chkconfig smb on
# chkconfig nmb on
# setenforce 0

結局のところなんで最後のやつが必要なのかが不明・・・。 いい加減勉強しろよw

2012年12月22日土曜日

Step 5 改 : Partially Failed

ここまではなんとか順調にきたんですが、ESXi からの移行、Debian と Windows XP は失敗しました。

Debian のほうはブートせず。/boot とかは見えてるのでディスクの情報自体は見えてると思うんですがねぇ。残しとく理由もあまりない VM だったので、そのディスクを CentOS のほうでマウントして必要な情報を抜き出すことで対応しました。

Windows XP のほうはなんと予想通りの青画面がでましたw こちらにいたってはもっと使ってない(DDNS の更新ソフトが Windows しかない、とかの理由)のでとりあえずこのままお蔵入りさせました。

メインの CentOS が移行できたのでよしとしますね。

移行計画・改定版

というわけで、Step 4と5は大幅に変えたわけですが、それ以降も状況が変わったので少し改定します。
  1. CentOS が使っているディスク領域を空ける(3.5TB 中 1.5TB 空きに)
  2. その ext4 ファイルシステムを 1.5TB 以下に縮小し、LVのサイズも縮める
  3. 2TB 余ったので 2TB HDD x 2 (RAID 1) を VG から抜く
  4. SSD を外し、3であまった HDD 2台を RAID 1 にして CentOS をインストール
  5. ESXi 上で動いていた VM たちを KVM にコンバート
  6. 4で余っている領域を使って RAID 1 を構成、VG/LV を作成
  7. 開発機の RAID 5 上にあるデータを移動し、RAID 5 を解除
  8. 7で空いた 2.5TB HDD x 3 のうち2本をサーバーにつけ、RAID 1 で VG に追加
  9. もともと VG に入っている 1.5TB の HDD を抜き、新たに 2TB と交換
  10. 開発機に 2.5TB、1.5TB、1.0TB を集め、1.5TB RAID1 + 2.0TB RAID0 にする
6 はもともと 1.5TB の VG をホストOS側で使う予定だったのでそれに 2TB の RAID 1 上に入れた CentOS のあまり部分を足すということにしてたんですが、1.5TB の VG はゲストOS側でしばらく使うことにしたのでこのように変えました。

あと実は隠れている大事なステップが・・・。
(隠し Step 7' : マザボ(と CPU)を交換w)
今サーバーが乗っているマザボは SATA の口が5個なんです。そこに現状4本 HDD がささっているので、Step 8 で2つさそうにも足りないのですね。まだ選定中ですが、CPU は Core i7 3770T を使う予定です。自分へのクリスマスプレゼント~。

Step 5 改 : VMware の VM を KVM に

Step 5 改です。おさらいですが Step 5 改 は
  1. ESXi 上で動いていた VM たちを KVM にコンバート
になります。 CentOS が無事インストールできたので、ESXi 上で動いていた VM たちを KVM で動かすことにします。こちらのサイトを参考にさせていただきました。ESXi -> 物理マシン は結果として失敗したわけですが ESXi -> KVM は果たして。

では実際に作業。もともと ESXi 上で VM を停止した上でイメージファイルをコピーしておきます。Virtual Machine Manager を起動して、必要なら Edit > Connection Details で Storage Pool を作っておきます。
# qemu-img convert <esxi_image_name>.vmdk -O raw <kvm_image_name>.img
新規VMを作るときにその img ファイルをインポートする。起動。おおお、ちゃんと起動するじゃん!・・・失敗した。この VM は今度はディスクをマウントしないので、今まであった LV を探しにいってないといわれて失敗してる。どうしようか。

いろいろ調べていたら物理ディスクを KVM に見せられると。これなら通過できそう。この件についても書いてる方たくさんおられますが、私は
# virsh edit <vm_name>
でデバイスの情報を書き込みました。
    <disk type='block' device='disk'>
      <driver name='qemu' type='raw'/>
      <source dev='/dev/sdc'/>
      <target dev='vdb' bus='virtio'/>
    </disk>
のような感じで。恒久的に運用するんだったら、source のところはちゃんと /dev/disk/by-id/... のように書いたほうがいいですね。/dev/sd. はディスク抜き差しすると変わるので。

そして起動したところ、LV のほうは無事通過!だけどべたでデバイスをマウントしてた(/dev/sdc2) ほうが相変わらずだめって言われる。・・・ということは単に /etc/fstab に指定を残したままにしちゃったのが原因か?

この状態になると single user mode になりますが、read only でマウントされちゃうのでそこでは訂正できず。なので OS のインストールに使った ISO イメージをコピーし、デバイスの追加で Storage を選び、タイプのところを IDE CD-ROM にして"Select managed..." のほうでコピーした ISO ファイルを指定。Boot Options のところで "Enable boot menu" をオンにして、起動して F12 を押すと起動メニューが出るのでそこで DVD/CD-ROM を選ぶ。
ここで Rescue を選んで進むと /mnt/sysimage だったかにマウントした状態で起動してくれるので、その中の etc/fstab を編集し、/dev/sdc2 をコメントアウトしてもう一度起動すると・・・。

起動したー!

怪我の功名って感じもしますが、結局のところ KVM のマシンからホストマシンにあるディスク2つ(=RAID 1のメンバー=LV)がそのまま見えててマウントもできました。

で、もともと VM たちは bridge 接続してたので、その設定を。これも(ほんと便利ですね)いろんなところで解説されてますが、今回参考にさせていただいたのはこちら。ややはまったのは、ifcfg-eth0 や ifcfg-br0 を修正していたら、NetworkManager が勝手に(?)まだ出来てない状態のものを読み込んだのかつながらなくなってしまったことですね。なので NetworkManager の停止等は先にやっておいたほうがよさそうです。
# service NetworkManager stop
# chkconfig NetworkManager off
# service network restart
# chkconfig network on 
それからてっきり br0 は各VMごとに作るのかと誤解していてそのままだとホストはどうなるんじゃい!とか思ってましたが、基本 eth0 のアドレスの設定とかを br0 に持っていけばいいようですね。そこらへんの原理はあまりしっかり理解しませんでしたが。

さてそれが終わったら KVM の VM の設定のところでネットワークの Source Device に "Host device eth0 (Bridge 'br0')" というのが出てくるのでそれを選択して起動。

おおお、見事にホストOS以外のマシンからも直接アクセスできました!この時点でこの VM については ESXi で動いていた状態に完全に戻ったのでいろんなサービスにもアクセスできます。あとのステップは徐々に行えばよいと。すばらしい。

これ以外の VM も同じようにすればいけるのではと期待できます。おそらく Debian のやつは同じように問題なく、Windows XP はもしかすると青画面が出るような予感もしますが・・・。うまくいっても activation をもう一度迫られて、OEM 版なので失敗してお蔵入りになるかもですね。そうだ、あまっている Vista のライセ (ry

Step 4 改 : CentOS 6.3 64bit のインストール

というわけで Step 4 改 です。新規インストールになったので特段難しいことはないので、最初から RAID 1 (と swap は RAID 0)で構成してみようと思います。swap は別にディスク1本が壊れた状態で RAID 0 が破綻してもその瞬間には swap がなくなるだけでそんなに問題はないだろう、ということで。

ISO ファイルを CentOS のページからゲット(実際は torrent で)して DVD に焼きます。・・・そういや光学ドライブついてないんだった。ってか USB メモリとかに書けないもんかねと思ってググっていたところ UNetbootin なるツールがそれをやってくれそうとのことで試す。起動したところ
 BOOTMGR is missing
というつれないメッセージが。しかし同じ問題にぶつかってた方がさらりと解決されてたので助かります。FAT32 でフォーマットしたら無事インストーラーが立ち上がりました。

既に RAID 切られてたのでそのままでもいけたんですが、一応インストーラーでも同じことができることは確認できました。RAID Partition を切り、RAID Device を定義し、LV も作り・・・と全く問題なく進みました。が・・・、フォーマットした後に「ISOイメージが見つかりません」との表示が。そういやどこか忘れましたが USB メモリに ISO イメージをコピーしとけって書いてありましたっけ。ISO ファイルを USB メモリにコピーして無事終了。よかった。

2012年12月21日金曜日

VMware ESXi サーバーの HDD を外す

早速インストールに移る前に。
外すHDDを特定する
これ大事なんですよね。Linux からみえてた /dev/sdd と /dev/sde を特定しなければ。Linux 上からも見えてたのかも知れないんですが、何せ ESXi の RDM が噛んでいるので。

調べ方。まず vSphere Client を起動して、構成を開く。そこでディスクを選ぶと「物理 LUN およびデータストア マッピング ファイル」というところになにやらIDっぽいものが出るのでそれをメモ。サーバーにログインして、/dev/disk に移動し、ls -l の出力で先ほどの ID を引くとリンクの指し先が
 t10.ATA_____WDC_WD20EARX2D....
のような感じになっているのできっとこれに違いない。今回はこれで調べてみたら外すべき 2TB HDD x 2 は同じ型番(WD20EARS)で残すほうは違う型番(WD20EARX)だったのでラッキー。(ちゃんとメモっておけと)

上では省略してますが、最後のほうにシリアルNoもでてきます。

Step 1 - 4

既にこれを書いている時点で Step 4 程度まで来ています。おさらいですが、Step 4 までというのは
  1. CentOS が使っているディスク領域を空ける(3.5TB 中 1.5TB 空きに)
  2. その ext4 ファイルシステムを 1.5TB 以下に縮小し、LVのサイズも縮める
  3. 2TB 余ったので 2TB HDD x 2 (RAID 1) を VG から抜く
  4. 3で余った HDD を RAID 1 にし、新たな VG/LV を作り、CentOS の / や /boot 等をコピー
ですね。1は手作業でいらないファイルを消したり、開発機のほうに移動したりを地道に。Step 2 は
# e2fsck -f /dev/mapper/vg0-lvm0
# resize2fs /dev/mapper/vg0-lvm0 1300G
# lvreduce -L 1300G /dev/mapper/vg0-lvm0
な感じで。 微妙に足りないとかだと困るので思い切って 1.3TB まで減らしました。そしたら偶然なのかわからないですが、外す予定の 2TB の HDD のほうが空になってくれたので、extent の移動とかはしなくてすみました。Step 3 は
# mdadm --stop /dev/md127
# mdadm --misc --zero-superblock /dev/sdd1 /dev/sdd2
な感じ。RAID を解除して、さらにその情報もクリアしたと。そして問題の Step 4 ですが
# mdadm --create /dev/md1 --level=1 --raid-devices=2 --metadata=0.90 missing /dev/sdd1
# mdadm --create /dev/md3 --level=1 --raid-devices=2 missing /dev/sdd3
# mkfs.ext3 /dev/md1
# e2label /dev/md1 /boot
# pvcreate /dev/md3
# vgcreate vg_root /dev/md3
# lvcreate -n lv_root --size 256G vg_root
# mkfs.ext4 /dev/vg_root/lv_root
# e2label /dev/vg_root/lv_root /
# mdadm --detail --scan > /etc/mdadm.conf
最後のをやらないと再起動後に RAID 構成が自動認識されたりされなかったり不安定な挙動を示したので重要なのかな。RAID の /dev/md*** の *** の部分は毎回変わるので以降はラベルで管理。/dev/md1 のやつを /boot に、あとは lv_root に / を置きます。データ類は別パーティションなので 256G で十分ではないかとの予想。

さて問題はここからでした。再起動後 GRUB で e を押し、kernel の行の最後に single を追加して b を押してブート。/ や /boot をそれぞれ新しいパーティションにコピー。再起動してまた e を押し、HDD に切り替えてブート。 

Kernel Panic

orz

うーむ。initrd を作り直しとかもやってみたんですけどね。どうにもうまくいかない。起動時に CentOS 6.3 という文字が出てバーがにゅーっと伸びていくやつありますよね。そのバーがもう少しで最後まで届く、その直前あたりでバーが伸びなくなって、そのちょっと後にこれになります。HDDが見えてないのかなぁ。しばらく悩んでたんですが、解決には至らず。

なので計画を改めます。そういえばコピー元の CentOS は VM だったんで i386 を入れてました。ホストOSになるには当然 x86_64 を入れるべきなのでこれは現状の移行は諦めて現状の CentOS はそのまま VM にして、新たに 64bit の CentOS をホストに入れることで対応することにします。新規インストールです。なのでステップ4、5は改めて
  1. SSD を外し、3であまった HDD 2台を RAID 1 にして CentOS をインストール
  2. ESXi 上で動いていた VM たちを KVM にコンバート
にします。

しかし少し不安なのは最終的にサーバーの CPU やら M/B やらをとりかえようと思っているので、そのときにまた kernel panic にならないかどうか・・・。とりあえずはならないことを祈って進みますけど。

移行計画

自宅サーバーを VMware ESXi から Linux に移行するという計画はひとつ前に書いたとおりですが、手順は以下のように進めます。
  1. CentOS が使っているディスク領域を空ける(3.5TB 中 1.5TB 空きに)
  2. その ext4 ファイルシステムを 1.5TB 以下に縮小し、LVのサイズも縮める
  3. 2TB 余ったので 2TB HDD x 2 (RAID 1) を VG から抜く
  4. 3で余った HDD を RAID 1 にし、新たな VG/LV を作り、CentOS の / や /boot 等をコピー
  5. SSD (ESXi) を外し HDD から起動
  6. 4で余っている領域をもともとある 1.5TB の VG に追加
  7. 開発機の RAID 5 上にあるデータを移動し、RAID 5 を解除
  8. 7で空いた 2.5TB HDD x 3 のうち2本をサーバーにつけ、RAID 1 で VG に追加
  9. もともと VG に入っている 1.5TB の HDD を抜き、新たに 2TB と交換
  10. 開発機に 2.5TB、1.5TB、1.0TB を集め、1.5TB RAID1 + 2.0TB RAID0 にする
壮大な計画ですねw

これが終わると、サーバーは約 6TB の領域が RAID 1 で確保され、開発機は 1.5TB RAID 1 + 2.0TB RAID 0 になります。開発機は少なくなる感じですが、どうせファイルの大部分はファイルサーバーにあるし、ソースコード等はチェックインする先がサーバーなので少なくても特に問題ないと。

RAID 5 にしたほうが容量稼げるのになぜか?という質問に対しては、基本 HDD を信用してない(=壊れるのが当たり前)というスタンスなので、なるべくシンプルな冗長性を取りたいのです。RAID 1 なら1台壊れても普通のディスクですからね。

はじめました

とか書く必要もないぐらい、適当に主にIT技術についていろいろやったことを書き連ねるだけのブログです。説明にもあるとおり基本備忘録なので書いてある情報を信じるも信じないもご自分の責任でお願いいたします。

で、早速。これから書く予定の年末の課題についてですw

仕事でいわゆる continuous integration をやっているのですが、その実行環境として管理が楽なので Linux (RHEL5/6) を使っていたのですが、Pure Java にもかかわらず実は Windows で実行しないと起きない問題とかあって、Windows (2008 Server) でも動かしたほうがいいって話になりまして。それで超絶高い(値段が、ですよ)マシンを借りて実行したんですが、えええ、そんなに遅いの?と驚きの遅さでした。他のマシンでも試した結果、I/Oが遅いマシンは Windows だと話にならない遅さになるという結論に。最終的にうちの環境での最速の Windows 環境は、なんと Linux の KVM 上の VM で作った Windows が最も速いという結果になりました。KVM を通して I/O したほうがいろいろキャッシュも利いて Windows というか NTFS というかの欠点を補ってくれるってことなんでしょうかね。もちろんその Linux 上で実行するのが1.5倍ぐらい速いんですけど。

で、ここまで調べた結果、私は「おいおい、やっぱ Linux 優秀じゃねーか」派となりました。そして自宅サーバーの VMware ESXi (たぶん4.0)もいろいろ面倒なのでやめて、Linux にした後 ESXi で動いていた VM を KVM に移行しちゃえばいいじゃないかと。動いてる VM も CentOS 以外はそれほど使ってないので。

自宅サーバーの現状は
M/B :     Intel DQ45CB
CPU :     Core2 Quad Q9450
RAM :     6GB
Storage : 80GB SSD, 2TB HDDx3, 1.5TB HDD
作ったのいつだったかな・・・。2008年8月発売のCPUがついてるってことはその年末あたりかな。となると4年ぐらいたってますかね。これに VMware ESXi が入っていて、その上で CentOS, Debian, Windows XP の VM が動いています。これらの VM のイメージは SSD 上にあって、残りの HDD たちは CentOS に Raw Device Mapping で見せています。CentOS はその HDD を RAID 1 (と残り500GB)にして大事なファイルを保護しているという状態。

それとは別に開発機があって、こちらは
M/B :      ASRock Z68 Pro3
CPU :      Core i7 2600K
RAM :      8GB
Storage :  240GB SSD, 2.5TB HDDx3, 1TB HDD 
ぶっちゃけるともともと 2.5TB の HDD はサーバーのほうにつける予定だったんです。でも ESXi 経由の RDM では認識されなかったので仕方なく開発機のほうにつけてます。マザボに RAID がついてるので調子にのって RAID 5 を構成してます。

とりあえず現状を記述したところでこの記事はまず閉じときますか。