SlideShare a Scribd company logo
Proxmox 4.3
優秀的虛擬化伺服器及儲存伺服器整合方案
• KVM / LXC 虛擬化方案
• WEB 純網頁管理界面
• CLUSTER 完善叢集模組
• ZFS, BTRFS, EXT3/4, XFS, LVM , GLUSTERFS &
CEPH 等眾多支援
1 VS 0 的對決
Proxmox 4.3 VS
 標準檔案格式系統,支援多種 FS
 開放式硬體式支援,兼容性高
 免費使用,企業更新年費制*
 支援 KVM & LXC (container)
 網頁,CLI & 手機界面管理
 Scale Out 架構
 原廠封閉檔案格式 VMFS
 封閉式硬體支援,兼容性低
 付費授權制 per Core
 支援VM,有限的支援 container
 CLI, Flash GUI 管理
 Scale Up 架構
VMWare vSphere 6.1
Proxmox 4.3 VS
網頁管理界面
Proxmox VE 4.3 vs VMWare vSphere 6.1
Proxmox 4.3 VS
手機管理界面
Proxmox 4.3 - Live Migration
Proxmox 4.3 – VDI Deploy
PVE 4.3 訓練從自己做起
建制便宜, 維護便宜
 Intel Atom CPU
 Realtek 網卡
 Software RAID卡
通通沒有問題
PVE Storage 的選擇 - ZFS
ZFS 適合 2~21台的 node 配置
一般小型企業到中型企業都合適
4到8顆 HD (RAID 1+0), 1 到 2 顆 SSD
1 gbe ~10 gbe 網路
擁有完整快照功能, 其 zsync, auto
snapshot 已經內建, Clone 非常方便 跟
kvm clone 不同
PVE Storage 的選擇 - CEPH
 CEPH 適合 7 node 以上的配置, 建議超過
21 node 以上時 它的效能就會展現出來
 適合線上遊戲, 電商或是入門網站 & 大數
據分析
 建議 AFA, NVMe Only
 10gbe~100gbe 網路 區分client & server
 需要找專業人員幫忙計算 OSD 參數
 無需任何備份* 掉 node 無效能損失
PVE 建議硬體 – 一般企業
4C8T CPU 以上支援 VT-X AES-NI
16 GB RAM 以上
RAID Card in IT Mode, 或是
主板上的 HBA
Sata 硬碟就可以
4個 1 gbe 以上的網卡,
單 Node 或 多 Node 高低配
一般企業 – 配置圖
PVE 建議硬體 – 中型企業
 8C16T CPU: VT-X, VT-D, AES-NI & AVX2
 64 GB RAM 以上
 RAID卡 in IT Mode, PCIe 的 HBA 卡
 企業的 SATA 硬碟 SAS 會更好.
 如果可以使用 NVMe SSD Cache 會更好
 Dual 10 gbe SR-IOV 功能的網卡 * RDMA
 Quad 1 gbe SR-IOV 功能的網卡
 3 Nodes 以上 可高低配
中型企業 -配置圖
PVE 建議硬體 – 大型企業
 8C16T CPU: VT-X, VT-D, AES-NI & AVX2
 128 GB RAM 以上
 SAS RAID卡 in IT Mode, PCIe 的 SAS HBA 卡
 企業 SAS 硬碟 或 AFA會更好.
 使用 NVMe SSD Cache.
 Dual 40 gbe SR-IOV & RDMA 功能的網卡
Infiniband
 Quad 1 gbe SR-IOV 功能的網卡
 14 Nodes 以上 可高低配
大型企業 – 配置圖
大型企業 – IB vs Eth
大型企業 – Infiniband 40 gbps
現在的建制成本不到台幣 10萬元
為什麼 LXC/Docker 那麼重要?
瞬間啟動
極致輕省
無痛部署
IT 運算跟分析能力到底有多重要!?
PVE 特殊應用-軟體系統開發者的天堂
PVE 特殊應用-軟體系統開發者的天堂
我的工作站就是我的 PVE 要 x-windows 也行!
Proxmox 4.3 VS AWS EC2
是方 (私有雲) AWS EC2 (公有雲)
每月費用 NT$ 35,000 NT$ 70,000
vCPU數 116 22
HDD容量 60 TB ( 120 TB RAW)8 TB
SSD 容量 1.6 TB 300 GB
總 RAM 896 GB 80 GB
VM 運行數 116 4
LXC 運行數 580 0
頻寬 110 mbps
總流量不限制
1000 mbps
總流量為 100 GB
備份模式 無限制 5次快照,異地備份另計
VPN 以包含 以每分鐘計算
有Proxmox 4.3 就不需要公有雲?
公有雲有絕對的必要性! 但是比例分配只
能 2:8. 核心服務不要上公有雲.
Proxmox 4.3 目的不是要省錢
PVE 可以在有限的資源下, 成功建制
運算虛擬化
網路虛擬化
儲存虛擬化
企業經費預算制度
投入核心競爭力
謝謝
這三位好朋友的協助 & 支持
謝謝
畫龍點睛之力
此次測試設備的 HDD
都是 ZFS & Seagate Enterprise HDD

More Related Content

PDF
Proxmox VE 企業應用經驗分享 [2017/07/29] @台中資策會
PDF
Proxmox VE 功能概觀、案例分享與實用工具 [2019/12/07] @Proxmox VE 中文使用者社團 2019 年會
PDF
Xenとzfsで作る家庭内VDIサーバ
PPTX
コンテナネットワーキング(CNI)最前線
PPTX
VMware vSAN - Novosco, June 2017
PDF
Proxmox VE & BS 備份與備援策略設計 [2020/12/26] @Proxmox VE 中文使用者社團 2020 年會
PDF
LibreNMS 企業實戰經驗分享 [2018/11/10] @Monospace
PDF
CircleCIのinfrastructureを支えるTerraformのCI/CDパイプラインの改善
Proxmox VE 企業應用經驗分享 [2017/07/29] @台中資策會
Proxmox VE 功能概觀、案例分享與實用工具 [2019/12/07] @Proxmox VE 中文使用者社團 2019 年會
Xenとzfsで作る家庭内VDIサーバ
コンテナネットワーキング(CNI)最前線
VMware vSAN - Novosco, June 2017
Proxmox VE & BS 備份與備援策略設計 [2020/12/26] @Proxmox VE 中文使用者社團 2020 年會
LibreNMS 企業實戰經驗分享 [2018/11/10] @Monospace
CircleCIのinfrastructureを支えるTerraformのCI/CDパイプラインの改善

What's hot (20)

PDF
ネットワーク運用自動化のためのサービス・運用設計
PPTX
大規模トラフィックにどのように備えて負荷対策を実施しているのか?
PDF
OpenStackトラブルシューティング入門
PPTX
Qiita Night 足場固めからやるマイクロサービス
PPTX
DeNAのインフラ戦略 〜クラウドジャーニーの舞台裏〜 [DeNA TechCon 2019]
PDF
Apache OpenWhiskで実現するプライベートFaaS環境 #tjdev
PDF
Fargate起動歴1日の男が語る運用の勘どころ
PDF
"Kong Summit, Japan 2022" パートナーセッション:Kong on AWS で実現するスケーラブルな API 基盤の構築
PDF
Elastic Stack を網羅する ハンズオンワークショップを 作ってみた.pdf
PDF
Gaming on aws 〜ゲームにおけるAWS最新活用術〜
PDF
ML2/OVN アーキテクチャ概観
PDF
#jjug_ccc #ccc_f1 広告システム刷新の舞台裏 - PHPからJavaに変えてみました
PDF
Apache Bigtop3.2 (仮)(Open Source Conference 2022 Online/Hiroshima 発表資料)
PDF
10分でわかる Cilium と XDP / BPF
PDF
100PBを越えるデータプラットフォームの実情
PDF
Oracle Database 11g,12cからのアップグレード対策とクラウド移行 (Oracle Cloudウェビナーシリーズ: 2021年7...
PPTX
Ansible ではじめるインフラのコード化入門
PPTX
Azure Cosmos DB + App Serviceの良い関係
PDF
QNX Sales Engineering Presentation
ネットワーク運用自動化のためのサービス・運用設計
大規模トラフィックにどのように備えて負荷対策を実施しているのか?
OpenStackトラブルシューティング入門
Qiita Night 足場固めからやるマイクロサービス
DeNAのインフラ戦略 〜クラウドジャーニーの舞台裏〜 [DeNA TechCon 2019]
Apache OpenWhiskで実現するプライベートFaaS環境 #tjdev
Fargate起動歴1日の男が語る運用の勘どころ
"Kong Summit, Japan 2022" パートナーセッション:Kong on AWS で実現するスケーラブルな API 基盤の構築
Elastic Stack を網羅する ハンズオンワークショップを 作ってみた.pdf
Gaming on aws 〜ゲームにおけるAWS最新活用術〜
ML2/OVN アーキテクチャ概観
#jjug_ccc #ccc_f1 広告システム刷新の舞台裏 - PHPからJavaに変えてみました
Apache Bigtop3.2 (仮)(Open Source Conference 2022 Online/Hiroshima 発表資料)
10分でわかる Cilium と XDP / BPF
100PBを越えるデータプラットフォームの実情
Oracle Database 11g,12cからのアップグレード対策とクラウド移行 (Oracle Cloudウェビナーシリーズ: 2021年7...
Ansible ではじめるインフラのコード化入門
Azure Cosmos DB + App Serviceの良い関係
QNX Sales Engineering Presentation
Ad

Similar to Proxmox VE 4.3 vs VMWare vSphere 6.1 (20)

PPTX
Proxmox 5.0
PPTX
應用Ceph技術打造軟體定義儲存新局
PPT
Hp Storage
PDF
Lvs在大规模网络环境下的应用pukong
PDF
Pegasus: Designing a Distributed Key Value System (Arch summit beijing-2016)
PPTX
Pegasus KV Storage, Let the Users focus on their work (2018/07)
PDF
Hacking Nginx at Taobao
PDF
How to plan a hadoop cluster for testing and production environment
PPT
XASUN WORKSTATION
PPS
方建国 -V mware-ha实战1
PDF
利用统一存储获得无与伦比的速度,简化系统,并节省更多
PPT
淘宝商品库MySQL优化实践
PDF
淘宝软件基础设施构建实践
PDF
淘宝软件基础设施构建实践
PDF
Taobao base
PDF
淘宝软件基础设施构建实践
PDF
Ceph Day Shanghai - Ceph in Chinau Unicom Labs
PDF
BAS011_VMware資料中心虛擬化-基礎_v190418
PPTX
Windows 與 Azure 的容器旅程 @ Ignite Mini 2016
PDF
Oracle 数据库一体机ODA X5-2 产品介绍.PDF
Proxmox 5.0
應用Ceph技術打造軟體定義儲存新局
Hp Storage
Lvs在大规模网络环境下的应用pukong
Pegasus: Designing a Distributed Key Value System (Arch summit beijing-2016)
Pegasus KV Storage, Let the Users focus on their work (2018/07)
Hacking Nginx at Taobao
How to plan a hadoop cluster for testing and production environment
XASUN WORKSTATION
方建国 -V mware-ha实战1
利用统一存储获得无与伦比的速度,简化系统,并节省更多
淘宝商品库MySQL优化实践
淘宝软件基础设施构建实践
淘宝软件基础设施构建实践
Taobao base
淘宝软件基础设施构建实践
Ceph Day Shanghai - Ceph in Chinau Unicom Labs
BAS011_VMware資料中心虛擬化-基礎_v190418
Windows 與 Azure 的容器旅程 @ Ignite Mini 2016
Oracle 数据库一体机ODA X5-2 产品介绍.PDF
Ad

Proxmox VE 4.3 vs VMWare vSphere 6.1

Editor's Notes

  • #2: Proxmox PVE 是使用 Debian Jessie [click] kernel 是 Ubuntu 十六點零四. 更新速度快 以及 支援更多新的硬體. 比 Redhat/Centos/FreeBSD 快了一年以上. [click] 這點很重要, 買了新的硬體, 但是如 OS 不支援, 硬體都開始折舊折 然後還不能使用. 企業是不能接受的喲 . 還是企業要購買 舊的硬體? 接近 End of Life 的產品? [click] PVE 完美支援 NVMe SSD, 它也完美支援 Mellanox 四十到一百 gigabit 網卡. FreeBSD 比較慢支援的原因為了穩定性. 由於 PVE 支援這些高端硬體, 它可以建立一個 Super Computing Grid 的架構. [click] 同時它也能支援十年前的 PC, 再陽春的設備也可以, 很多時候都會碰到魚跟熊掌不可以兼得. 但是在 PVE 的世界, 是可以 -大小- 男女老少 - 都能通吃. [click] PVE 是 Bare Metal Solution, 是極輕量的虛擬化平台 跟 VMWare vSphere 一樣, 但是它所需要使用的資源更加的少. 同時也整合好了 Software Define Storage 的儲存系統 建制費用更便宜 是自由以及開放的系統, 支援非常多的檔案格式
  • #3: 簡單的比較一下 PVE 跟 vSphere [click] [click] VMFS 增加了備份的困難以及其備份機制的價格. NFS 效能是很“基本的”, 所以略過. VMWare 的 Hardware Compatible List HCL 存在許多問題 Realtek 的網卡不支援, 舊版的 intel 網卡這次 六點零 也不支援 vCenter 授權很貴族, 才有 vMotion 功能. 又需要 一台 window server 的授權來管理. 其實很肥大 Flash 的管理界面真的很慢, 沒有效率 vSAN vHorizon 的授權實在嚇死寶寶了 現在雲的時代 等於 OpenStack VMWare 實際在 OpenStack 運行困難重重 vSan 問題司 有 KVM 或 Hyper V 的 VM 可以使用 vSAN 嗎? 在 VMWare NSX 跟 Openstack neutron vlan bridging 我試了很多次, 都還是有很多問題, 就是要全面使用 NSX gateway, 然後其它的統統不能用 表面上可以跟 OpenStack 接軌, 實際上 網絡 跟 儲存 並不是那麼相容. 目前要讓 VMWare 的 vm 直接拋到公有雲是有難度的, 直到 10/13 VMWare 才剛剛宣布跟 Amzon 結盟,準備開始讓 vSphere 跟公有雲接軌. 不過都還是未來式. 而且新的工具, 新的服務, 那麼 vmware 又要準備多收一筆授權費了. Scale out 的架構, 一定要可以高低配. 舊的版本個舊硬體, 新的版本 跟新硬體 要可以混搭的. vSphere五的 vHardware 是 v八 版本, vSphere六的 vHardware 是 v 十一版本 也就是 vSphere 六 的 VM是無法 vMotion 到 vSphere 五 的. 因為 HCL 不同, vSphere五 的伺服器不見得可以升級到 vSphere六. 舊的升不上來, 難道要新的降下去? [一臉驚訝] . [笑] 在 PVE 的世界, 是完全沒有這個問題.
  • #4: 簡單, 乾淨整齊. HTML 5
  • #5: 一目了然, 速度快, [比食指] 非 flash 界面.
  • #6: 其它 虛擬化平台 缺乏的 管理界面 手機上也行控管
  • #7: Live Migration 的功能,跟 vmotion 一樣, 只要有 share storage 就可以做到. [click play] 在這邊我開啟一個 windows 10 VM 然後開始播放 youtube 的 Live 新聞台 先從 第二個 Node 開始 把一個 vm migrate 到第一個 node 上面 當 migration 開始時, PVE 就開始把 VM 的 RAM 從開始從 B 往上面 A 傳送. 就像是電腦進行休眠模式把記憶體 儲存到硬碟裡. 所以網路速度更快, 那麼 Migration 就越快. [pause] 有很多展示使用 ping 來顯示 Migration, 但是使用 live stream video 播放, 讓大家第一手感覺在 vm 上面的使用者, 到底會感受到什麼差異 現在 vm 一二零 還在 Node B 下面, 等一下會就跳到 Node A 上面, 但是 RDP 的連線不會斷, 播放中的 streaming video 也不會斷 . 猜猜看 這個 live migration 是使用怎麼樣的等級的機器完成的? [頓3秒] 主機是 Intel i五 跟 十六 GB 的記憶體. 等一下也可以現場展示
  • #8: VDI 建制也一直是企業非常需求的部分. 這邊展示如何利用 PVE 跟 ZFS 的搭配, 迅速建制五個的 獨立檔案系統 windows 十的 VM [play] 這是我在3分鐘內寫的一個簡易 script 填入 vmid, 然後告知要複製的 hdd 位置 就馬上看到 增加了 122~126 這5個 vm. . 最棒的一點是, 儲存空間不會因此而暴增. 再來看看每一個 vm 硬碟使用多少空間 ? 才 8K . 接下來去看每一個 vm, 都是擁有自己的獨立硬碟 也不會關機後資料就不見 . 但是設定的 mac address 要更換一下, 我的 script 偷懶沒有寫入自動增加新的 mac . [等5秒] . 然後就可以開機了, 來開四個 vm 好了 . 當 vm 開啟後, 我們可以看到 console 的開機畫面, 這個已經開啟了, 接下來的也可以看到 windows 十 . 再來這個 demo video 也是 Intel i五 跟 十六 GB 的記憶體. 其實它是 一台 Qnap TVS 八七一 T 操作系統是 PVE 就對了 等等可以到攤位參觀.
  • #9: PVE 四點三 訓練費用可能不便宜. 因為自己的時間無價 因為學校沒有教. 所以只能自學, 但是硬體可以使用舊的 pc 或是淘汰的伺服器來測試建制 需要的是, 投資你的時間 任何硬體 [click] [click] [click] 通通沒有問題, 這些是 VMWare 做不到的 [2秒] 已經有太多成功的案例, 台灣的教育界, 是台灣之光 在 PVE 社團裡的國小, 國中老師 或資訊組長都是 Pro 等級 . [看現場反應] 小弟今年才 18歲, 還是在校生, 所以跟國小老師跟國中老師們都混得很熟.
  • #10: PVE 是一個 Software Define Computing 的產品, 現在都開始必須要跟 Software Define Storage 以及 Software Define Network 去結合了. 所以一個完整的虛擬化方案, 這兩部分一定不能缺席 在這邊介紹一下 PVE 可以搭配, 我認為最有效能以及潛力的儲存方式. 關於 EXT四 , LVM 傳統格式, 的基本功能, 這邊就略過. PVE 的 ZFS 支援非常完整, ZFS on Linux 已經非常成熟, 效能也非常的好, 而且它是可以跟 freebsd, nexenta, openindia 的 zfs pool 互相通用的.
  • #11: ZFS 跟 Ceph 有太多細部的教學, 這部分有點學無止境, Ceph 在台灣 FB 的論壇, 有高手 Ceph 還是需要專業人士維護的. 當它報錯, 或是其中一個 node 下線時, 還是要修復那個 node 讓它上線的. 不然 node 全部掉光光資料還是會損毀 Ceph 是可以備份的, 它有 remote replica 的功能. 這是我目前特別積極在測試的部分.
  • #12: 伺服器之間串聯網路的效能非常重要. 我建制過很多系統架構, 最常碰到的瓶頸 都是網卡速度或是 iops 不夠, 非常少碰到是 cpu 不給力或是 ram 不足的問題. 現在 pc 伺服器 大部分都是運算效能過多, 記憶體過多, 所以我們才虛擬化, 讓一台實體主機跑多台虛擬機. . 在虛擬化的過程中, 其實是非常需要 CPU 的 “硬解” 來提供加速的. 要有 VT-X 才能開啟 VM, AES dash NI 是重要的加密 Instruction Set
  • #14: IT Mode就是 把 RAID 卡刷成 HBA 卡 建議少使用 主板上的 hba, 因為使用 pcie 卡, 如果壞掉了, 可以迅速更換. 同時暫時也可以使用 主板上的 hba. 這是前輩給我的教導. 謝謝 威傑科技! 謝謝王大哥. 盡量使用 SAS 硬碟如果許可的話 如果有 NVMe SSD 來做 Cache 真的會讓寫入效能暴增 SR-IOV 當作是硬體式的虛擬網卡, 也只有 透過 SR-IOV 的模式, 才能讓 VM 或是 LXC 使用到“真正” 的10 gpbs. OV Switch 或是 Linux Bridge 從虛擬機傳送封包 到 實體的 switch 效能只有 七 gigabits 左右. 因為 上述這兩個 SDN 受到 cpu 的限制, 沒有辦法在一秒內處理那麼多的封包. 畢竟 cpu 不適合拿來當 switch 的晶片
  • #16: Infiniband 所有 Ethernet 的缺點它都~沒有. 沒有 packet loss 沒有 packet out of sequence 的問題 jumbo frame 六十五個 mega byte 而不是 tcp ip 一千五 MTU 那麼小. 它的 latency 非常的低, 比 Ethernet 低了 10倍以上, 也就是如果 Eehernet ping time 是 零點一 millisecond, 那麼 infiniband 的 ping time 就是 零點零零一 millisecond. 當你在 scale out 做 cluster 的時候, node 之間的快速回應就變成它真正效能的重點, 單一 node 的 cpu 再快, 沒有夠快速的大封包 數據進來給它運算, 那麼 cpu 運算效能就是浪費了 RDMA 是 by pass 其它伺服器上的 cpu, 就可以直接讀取或是寫入 數據 到其它伺服器的 RAM 或是 Storage 裡 在 十 gigabits RDMA Infiniband 的網路, data 的 io, 可以比 10 gigabits Ethernet 的 快上 4 倍. 這個就是為什麼我捨棄 iSCSI.
  • #18: 上面是 infiniband 的 ping time 下面是 Ethernet 的 ping time Latency 是差異很多
  • #19: Infiniband 四十 gigabit 的網路 [click] 現在的建制成本不到台幣 10萬元 到我的攤位我會說明
  • #20: [click] 開機 1 秒 但是 vm 要 45秒以上 [click] RAM 只要 50 MB [click] Yahoo Japan 的記錄是 90秒內開啟 200萬個 container, 但是相同的時間 vm 只能開 20萬個. 輕量化的 Container 可以大幅增加 企業伺服器的運算能力, 這個就是為什麼 大數據 以及 internet of things 都希望使用 container 來做運算跟分析. 因為資料太龐大太多, 使用 vm 實在太過於肥胖. 這點就是 vmware 的弱項.. [click] 國家的競爭能力已經包含了其超級電腦的運算能力. 以前大家看一家公司只會看其管理階層的能力, 以及財務報表的 EPS. 未來一家公司的軟實力, 一定會包含其 IT 運算能力以及分析能力. 現在 Google 的 人工智慧/深度學習 嚇死很多 S and P 五百 的公司. 特別是 Toyota, 福特, 賓士, 寶馬, 這些汽車大廠, 它們覺得自己已經是風中殘燭, 隨時都會被 Google 的無人車給淘汰. 運算能力以及分析能力是讓企業不要走遠路, 避免錯誤, 及時發現浪費的資源以及可能發生的問題. 沒有看到這一點的企業, 一定會有問題. 像是以前流通業認為通路為王, 但是在電商的時代, 通路真的是王道嗎? Amazon 打死多少美國傳統通路? 淘寶在中國, 擊敗多少實體店面以及百貨公司?
  • #21: LXC 隨便我開, 愛怎麼測就怎麼測, 想用什麼 library 什麼環境都隨我, 自由度一百 效率一百 不用等 system admin 開給我
  • #22: 我的工作站就是我的 PVE 要 x-window 也行!
  • #23: 自建的私有雲, 有以下的優點   有更多的儲存空間 備份模式更加自由 增添需要新的IT服務不會增加費用 使用移動用戶 VPN 專線聯入私有雲不需要特別的費用, 但是 AWS 日本的 vpn 服務是以每分鐘計費 這個表的比較, 你可以看到價格是一半, 但是運算是5倍多, 容量是 7倍多, 最重要的 vpn 在公有雲上面是記時記量的
  • #24: 有Proxmox 4.3 就不需要公有雲? [click] 公有雲有絕對的必要性! 但是比例分配只能 二比八. 核心服務不要上公有雲. [click] 假設我司有一個大型促銷, 參加淘寶的光棍節網路大促銷, 預期為兩個禮拜的時間, 會跟我司交易/庫存系統結合資料的部分 比平時暴增 10倍~20倍. 而我司的硬體服務架構無法快速擴充, 同時如果事先3個月建制, 只是為了這兩個禮拜的服務, 需要每月折舊攤提設備, 但平時都是閒置 90%, 昂貴的折舊攤提也是不符合 ROI 效益 所以使用公有雲的 on demand service 就非常符合經濟效益. 圖表是企業什麼時候需要短暫使用公有雲的服務, 綠色虛線以上時.
  • #25: Proxmox 4.3 目的不是要省錢 Proxmox 4.3 目的不是要省錢 [click] Proxmox 4.3 目的不是要省錢 [click] 而是集中資源資金增加企業的運算以及分析能力, 進而達到產業提升.
  • #26: 光華的黨贏 陳大哥 Interface Virtual 外借的機器 以及 PCTine 隨時的收集資料跟督促
  • #27: 謝謝 Jason 的修飾 希望等下抽大獎時可以看到他的名片
  • #28: 此次測試設備的 HDD 都是 ZFS & Seagate Enterprise NAS HDD