Open4
QNAP QuTS heroメモ
日本語マニュアル
機種
システムプール
- 最初に作成したプール上に自動的に作成される。変更不可。
QuTS hero がログやメタデータ、サムネイルなどのシステムデータの保存に使用する通常のストレージプールです
- マニュアル(システムプール)
- SSD上への構築が推奨されている(マニュアルのページによっては必須とされている)
- プールの全ディスクをミラーリングで使用するように構築される。
- 常時何かしらの読み書きが行われている様子。
- 容量自体は小さい。
ディスク状態
HDD4本+内部M.2キャッシュ有効
- キャッシュ用SSDを含めたディスクでシステムプールが構築される(md9, md13、どちらも500MiB程度)
- md321, md322はswap(SSD、HDDのそれぞれでミラー)
- スワップ領域はSSD、HDDそれぞれに搭載メモリと同容量確保される(SSD側優先)
- zpool1がメインプール。ほぼ全体が割り当てられている
- SSDの10GB程の容量をZIL(ミラー)として割当。ZFSとしてのキャッシュは無し?
- zpool2は謎。SSDの500MiB程度の領域に、キャッシュ(SSDのほぼ全容量)を割当
$ cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md322 : active raid1 sdb5[3](S) sdc5[2](S) sdd5[1] sde5[0]
32400896 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md321 : active raid1 nvme1n1p5[2] nvme0n1p5[0]
33449472 blocks super 1.0 [2/2] [UU]
bitmap: 0/1 pages [0KB], 65536KB chunk
md13 : active raid1 sde4[0] nvme1n1p4[65] nvme0n1p4[64] sdb4[3] sdc4[2] sdd4[1]
458880 blocks super 1.0 [64/6] [UUUUUU__________________________________________________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
md9 : active raid1 sde1[0] nvme1n1p1[65] nvme0n1p1[64] sdb1[3] sdc1[2] sdd1[1]
530048 blocks super 1.0 [64/6] [UUUUUU__________________________________________________________]
bitmap: 1/1 pages [4KB], 65536KB chunk
unused devices: <none>
$ zpool status
pool: zpool1
state: ONLINE
scan: scrub repaired 0 in 0 days 00:39:06 with 0 errors on Sun Oct 17 04:39:09 2021
prune: never
config:
NAME STATE READ WRITE CKSUM
zpool1 ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
qzfs/enc_0/disk_0x3_HDD1_3 ONLINE 0 0 0
qzfs/enc_0/disk_0x4_HDD2_3 ONLINE 0 0 0
qzfs/enc_0/disk_0x5_HDD3_3 ONLINE 0 0 0
qzfs/enc_0/disk_0x6_HDD4_3 ONLINE 0 0 0
logs
mirror-1 ONLINE 0 0 0
qzfs/enc_0/disk_0x1_SSD1_6 ONLINE 0 0 0
qzfs/enc_0/disk_0x2_SSD2_6 ONLINE 0 0 0
errors: No known data errors
pool: zpool256
state: ONLINE
scan: none requested
prune: never
config:
NAME STATE READ WRITE CKSUM
zpool256 ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
qzfs/enc_0/disk_0x1_SSD1_2 ONLINE 0 0 0
qzfs/enc_0/disk_0x2_SSD2_2 ONLINE 0 0 0
cache
qzfs/enc_0/disk_0x1_SSD1_3 ONLINE 0 0 0
qzfs/enc_0/disk_0x2_SSD2_3 ONLINE 0 0 0
errors: No known data errors
$ cat /proc/swaps
cat /proc/swaps
Filename Type Size Used Priority
/dev/md321 partition 33449468 0 -2
/dev/md322 partition 32400892 0 -3
$ mount | grep -E "md[0-9]+"
/dev/md9 on /mnt/HDA_ROOT type ext3 (rw,data=ordered)
/dev/md13 on /mnt/ext type ext4 (rw,data=ordered,barrier=1,nodelalloc)
$ parted /dev/sdb print
Model: XXXXXXXXXXXXX (scsi)
Disk /dev/sdb: 6001GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:
Number Start End Size File system Name Flags
1 20.5kB 543MB 543MB ext3 primary
2 543MB 1086MB 543MB primary
3 1086MB 5966GB 5965GB primary
4 5966GB 5967GB 543MB ext3 primary
5 5967GB 6001GB 34.3GB primary
$ parted /dev/nvme0n1 print
Model: Unknown (unknown)
Disk /dev/nvme0n1: 500GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:
Number Start End Size File system Name Flags
1 20.5kB 543MB 543MB ext3 primary
2 543MB 1086MB 543MB primary
3 1086MB 454GB 453GB primary
4 454GB 455GB 543MB ext3 primary
5 455GB 489GB 34.4GB linux-swap(v1) primary
6 489GB 500GB 10.7GB primary
$ zfs list zpool256
NAME USED AVAIL REFER MOUNTPOINT
zpool256 1.05M 383M 144K /zpool256
SSHログイン
- SSHを有効化することで、ログイン可能
- sudoも可。sudoするとメニューが出るが、Qからのy(yes)で普通のシェルが起動できる
- 基本的にはbusybox
+--------------------------------------------------------+
| Console Management - Main menu |
| |
| 1: Show network settings |
| 2: System event logs |
| 3: Reset to factory default (password required) |
| 4: Activate/ deactivate a license |
| 5: App management |
| 6: Reboot in Rescue mode (w/o configured disk) |
| 7: Reboot in Maintenance Mode |
| Q: Quit (return to normal shell environment) |
| |
| |
| |
| |
| |
+--------------------------------------------------------+
>>
10Gb Ethernet
CX311AというSFP+なNICを刺したところ、特に問題無く動作している様子。
(まだ負荷は掛けていない)
Mellanox MT27500 Family [ConnectX-3]ConnectX
として認識している。
ただし、ハードウェアリソース画面には出てこない。純正パーツが無いので、この画面が本来どうなるかは不明。
なお、PCI-eスロットがそもそも3.0x1なので、デュアルポートを選んでも特に速度的なメリットは無いと思われる。
PCI-eスロットはGen3x4でした。Gen3x1なのは、M.2スロット側。
VLANの制約
VLANを有効にすると、ポートトランキングができなくなる。
ポートとランキングを有効にした後でVLANを設定すれば問題無い。
メインメモリ
標準の8GBを取り外し、16GBx2に交換。
別の機種ではあるものの、Crucialを使っているパターンが多かった為、Crucial(CFD扱い)のDDR4-2666 16GBx2 W4N2666CM-16GR
を利用。
エラー等は特に出ておらず、普通に認識している。