hnakamur’s blog

ものすごい勢いで忘れる私のために未整理でもいいからとりあえずメモ

2011-11-02

LionではTime Machineのバックアップ先としてネットワーク上の共有フォルダは使えないらしい

Time Capsuleを買えってことですかね。NASじゃなくてUSB接続の外付HDDにすればいいのかな。

調べてみるとそのようでした。
価格.com - 『LionのTimemachineに対応した外付けHDDはある?』 APPLE MacBook Air 1700/13.3 MC966J/A のクチコミ掲示板

Scientific Linux 6.1のnetatalk 2.2.1でLion用Time Machine設定

参考:CentOS 6 で netatalk 2.2.0 の Lion Time Machine 対応設定 - Debian GNU/Linux 3.1 on PowerMac G4

/etc/netatalk/apfd.confに以下の1行追加(変更前の最終行のコメントアウトしてある行をコピペして-setuplogオプションを追加した)。
- -tcp -noddp -uamlist uams_dhx.so,uams_dhx2.so -nosavepassword -setuplog "defau
lt INFO_LOG /var/log/netatalk.log"

/etc/netatalk/AppleVolumes.defaultの:DEFAULT:を編集。dperm:0700 fperm:0600 ea:sysを追加。
:DEFAULT: options:upriv,usedots dperm:0700 fperm:0600 ea:sys

~の行はコメントアウト。
# The "~" below indicates that Home directories are visible by default.
# If you do not wish to have people accessing their Home directories,
# please put a pound sign in front of the tilde or delete it.
# ~

タイムマシン用の設定を追加。volsizelimitについてはファイル中に説明あり。1000=1GB
# Time Machine
/mnt/TimeMachine "Time Machine" options:tm volsizelimit:512000

自動起動を有効化。
chkconfig netatalk on

起動。
/etc/init.d/netatalk start

ポート番号調査。
ps auxww | grep afpd

root     21762  0.2  0.0 182236  2940 ?        S    22:18   0:00 /usr/sbin/afpd -U uams_dhx.so,uams_dhx2.so -g nobody -c 20 -n sunshine103
root     21855  0.0  0.0 107432   952 pts/0    S+   22:21   0:00 grep afpd

netstat -an --program | grep "^tcp.*21762"
tcp        0      0 0.0.0.0:548                 0.0.0.0:*                   LISTEN      21762/afpd

netatalkはポート548を使っていることが判明。

/etc/sysconfig/iptablesに以下の行を追加。
-A INPUT -m state --state NEW -m tcp -p tcp --dport 548 -j ACCEPT

反映。
/etc/init.d/iptables restart

これで、MacでFinderの[移動]/[サーバーへ接続]メニューを実行し「afp://サーバのアドレス/」を入力すると「Time Machine」という共有フォルダが表示されます。選択するとサーバー上のユーザIDとパスワードを聞かれるので入力するとアクセスできました。

Scientific Linux 6.1にnetatalk 2.2.1をインストール

参考:Netatalk 2.2.1 (安定版) SRPM:HAT blog

wget http://www003.upp.so-net.ne.jp/hat/files/netatalk-2.2.1-0.1.5.el6.src.rpm

rpm -ivh netatalk-2.2.1-0.1.5.el6.src.rpm
yum install rpm-build
cd rpmbuild/SPECS/
rpmbuild -bb netatalk.spec

エラー: ビルド依存性の失敗:
 cracklib-devel は netatalk-4:2.2.1-0.1.5.el6.x86_64 に必要とされています
 quota-devel は netatalk-4:2.2.1-0.1.5.el6.x86_64 に必要とされています
 libtool は netatalk-4:2.2.1-0.1.5.el6.x86_64 に必要とされています
 db4-devel は netatalk-4:2.2.1-0.1.5.el6.x86_64 に必要とされています
 pam-devel は netatalk-4:2.2.1-0.1.5.el6.x86_64 に必要とされています
 tcp_wrappers-devel は netatalk-4:2.2.1-0.1.5.el6.x86_64 に必要とされています
 libgcrypt-devel は netatalk-4:2.2.1-0.1.5.el6.x86_64 に必要とされています
 avahi-devel は netatalk-4:2.2.1-0.1.5.el6.x86_64 に必要とされています
 libacl-devel は netatalk-4:2.2.1-0.1.5.el6.x86_64 に必要とされています
 openldap-devel は netatalk-4:2.2.1-0.1.5.el6.x86_64 に必要とされています

yum install cracklib-devel quota-devel libtool db4-devel pam-devel tcp_wrappers-devel \
libgcrypt-devel avahi-devel libacl-devel openldap-devel


rpmbuild -bb netatalk.spec

cd ~/rpmbuild/RPMS/x86_64/
rpm -ivh netatalk-2.2.1-0.1.5.el6.x86_64.rpm
rpm -ivh netatalk-devel-2.2.1-0.1.5.el6.x86_64.rpm

Scientific Linux 6.1でソフトウェアRAID1

参考:
/dev/sdbと/dev/sdcに1TBのHDDがある状態で、この2台でソフトウェアRAID1を組んで見ました。

以下のコマンドを実行。
yum install dmraid mdadm

以下のコマンドを実行。
fdisk /dev/sdb
パーティションがある場合はまず削除します。
その後type=fd (Linux raid 自動検出)のパーティションを作成します。

もう1台のHDDでも同様に実行。
fdisk /dev/sdc


/etc/mdadm.confを編集。下記の行を追記。
# RAID1 on two 1TB disks
DEVICE /dev/sd[bc]1
ARRAY /dev/md0 devices=/dev/sdb1,/dev/sdc1

以下のコマンドを実行。
mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sd[bc]1

継続して良いか聞かれるのでyを押す。
mdadm: /dev/sdb1 appears to contain an ext2fs file system
    size=488287608K  mtime=Wed Nov  2 18:33:48 2011
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: /dev/sdc1 appears to contain an ext2fs file system
    size=976760000K  mtime=Wed Nov  2 18:33:48 2011
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

状態確認。
mdadm --detail /dev/md0

Personalities : [raid1] 
md0 : active raid1 sdc1[1] sdb1[0]
      976758841 blocks super 1.2 [2/2] [UU]
      [>....................]  resync =  1.9% (18636544/976758841) finish=168.2min speed=94907K/sec
      
unused devices: 
[root@sunshine103 etc]# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Wed Nov  2 20:29:13 2011
     Raid Level : raid1
     Array Size : 976758841 (931.51 GiB 1000.20 GB)
  Used Dev Size : 976758841 (931.51 GiB 1000.20 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Wed Nov  2 20:29:13 2011
          State : clean, resyncing
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

 Rebuild Status : 2% complete

           Name : sunshine103:0  (local to host sunshine103)
           UUID : 85baee8b:5601c9d3:146ff925:09e772cf
         Events : 0

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1

物理ボリューム作成。
pvcreate /dev/md0

物理エクステントサイズを計算。
bc
1024*1024/65000
16

物理ボリュームグループ作成。
vgcreate -s 16M lvm-raid /dev/md0

物理ボリュームグループ情報表示。
vgdisplay lvm-raid

--- Volume group ---
  VG Name               lvm-raid
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  1
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                0
  Open LV               0
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               931.50 GiB
  PE Size               16.00 MiB
  Total PE              59616
  Alloc PE / Size       0 / 0   
  Free  PE / Size       59616 / 931.50 GiB
  VG UUID               E0vNd7-vrMF-3CSL-tdhA-uIfW-opeQ-hy22su

512GBの論理ボリュームをlvm0という名前で作成。
lvcreate --size 512G lvm-raid -n lvm0

空き容量確認。
vgdisplay lvm-raid
--- Volume group ---
  VG Name               lvm-raid
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  2
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                1
  Open LV               0
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               931.50 GiB
  PE Size               16.00 MiB
  Total PE              59616
  Alloc PE / Size       32768 / 512.00 GiB
  Free  PE / Size       26848 / 419.50 GiB
  VG UUID               E0vNd7-vrMF-3CSL-tdhA-uIfW-opeQ-hy22su

残りの容量一杯の論理ボリュームをlvm1という名前で作成。
lvcreate -l 26848 lvm-raid -n lvm1

状態確認。
vgdisplay lvm-raid
--- Volume group ---
  VG Name               lvm-raid
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  5
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                2
  Open LV               0
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               931.50 GiB
  PE Size               16.00 MiB
  Total PE              59616
  Alloc PE / Size       59616 / 931.50 GiB
  Free  PE / Size       0 / 0   
  VG UUID               E0vNd7-vrMF-3CSL-tdhA-uIfW-opeQ-hy22su

論理ボリューム内にext4ファイルシステムを作成。
mkfs -t ext4 /dev/lvm-raid/lvm0
mke2fs 1.41.12 (17-May-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
33554432 inodes, 134217728 blocks
6710886 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
4096 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks: 
 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
 4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 
 102400000

Writing inode tables: done                            
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done

This filesystem will be automatically checked every 34 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.

mkfs -t ext4 /dev/lvm-raid/lvm1
mke2fs 1.41.12 (17-May-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
27492352 inodes, 109969408 blocks
5498470 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
3356 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks: 
 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
 4096000, 7962624, 11239424, 20480000, 23887872, 71663616, 78675968, 
 102400000

Writing inode tables: done                            
Creating journal (32768 blocks): done
Writing superblocks and filesystem accounting information: done

This filesystem will be automatically checked every 22 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.


マウントポイントを作成。
mkdir /mnt/{TimeMachine,data}

/etc/fstabに以下の行を追加。
/dev/lvm-raid/lvm0 /mnt/TimeMachine             ext4    defaults        0 0
/dev/lvm-raid/lvm1 /mnt/data                    ext4    defaults        0 0

マウント実行。
mount -a

ブログ アーカイブ