文件

硬體檢查清單

在規劃生產、分散式 MinIO 部署的硬體組態時,請使用以下檢查清單。

考量事項

在為您的 MinIO 實作選擇硬體時,請考慮以下因素

  • 啟動時要儲存的資料預期數量(以 Tebibyte 為單位)

  • 至少未來兩年資料大小的預期成長

  • 按平均物件大小劃分的物件數量

  • 資料的平均保留時間(以年為單位)

  • 要部署的站點數量

  • 預期的儲存桶數量

生產硬體建議

以下檢查清單遵循 MinIO 的建議組態,適用於生產部署。所提供的指南旨在作為基準,不能取代MinIO SUBNET效能診斷、架構檢閱和直接工程支援。

MinIO 與任何分散式系統一樣,受益於為給定伺服器集區中的所有節點選擇相同的組態。確保在集區節點之間一致選擇硬體(CPU、記憶體、主機板、儲存介面卡)和軟體(作業系統、核心設定、系統服務)。

如果節點具有不同的硬體或軟體組態,部署可能會出現無法預測的效能。從在較低成本硬體上儲存過時資料中受益的工作負載,應改為部署專用的「暖」或「冷」MinIO 部署,並將資料轉換到該層。

MinIO 不提供託管服務或硬體銷售

請參閱我們的參考硬體頁面,其中包含來自我們硬體合作夥伴的伺服器和儲存元件的精選列表。

說明

最低

建議

專用裸機或虛擬主機(「主機」)。

4 個專用主機

8 個以上專用主機

每個主機的專用本機連接磁碟機.

每個 MinIO 伺服器 4 個磁碟機

每個 MinIO 伺服器 8 個以上磁碟機

高速網路基礎架構.

25GbE

100GbE

支援現代 SIMD 指令 (AVX-512) 的伺服器級 CPU,例如 Intel® Xeon® Scalable 或更高等級。

每個主機 8 個 CPU/插槽 或 vCPU

每個主機 16 個以上 CPU/插槽 或 vCPU

可用記憶體需滿足或超過每個伺服器的使用量,並具備合理的緩衝空間。

每個主機 32GB 可用記憶體

每個主機 128GB 以上可用記憶體

重要

以下區域對 MinIO 效能有最大的影響,並依重要性順序列出

網路基礎架構

不足或有限的吞吐量會限制效能

儲存控制器

舊的韌體、有限的吞吐量或故障的硬體會限制效能並影響可靠性

儲存裝置 (硬碟)

舊的韌體或速度慢/老化/故障的硬體會限制效能並影響可靠性

優先確保每個這些領域的必要組件,再關注其他硬體資源,例如與運算相關的限制。

上述的最低建議反映了 MinIO 在協助企業客戶於各種 IT 基礎架構上部署,同時維持所需的 SLA/SLO 的經驗。雖然 MinIO 可能在低於最低建議的拓樸上執行,但任何潛在的成本節省都會以降低可靠性、效能或整體功能的風險為代價。

網路

MinIO 建議使用高速網路來支援所連接儲存裝置(聚合硬碟、儲存控制器和 PCIe 匯流排)的最大可能吞吐量。下表提供給定實體或虛擬網路介面所支援的最大儲存吞吐量的一般指南。此表假設所有網路基礎架構組件(例如路由器、交換器和實體纜線)也支援 NIC 頻寬。

NIC 頻寬 (Gbps)

估計的聚合儲存吞吐量 (GBps)

10Gbps

1.25GBps

25Gbps

3.125GBps

50Gbps

6.25GBps

100Gbps

12.5GBps

網路對 MinIO 效能的影響最大,其中每個主機的低頻寬會人為地限制儲存的潛在效能。以下網路吞吐量限制的範例假設旋轉硬碟具有約 100MB/S 的持續 I/O

  • 1GbE 網路連結可以支援高達 125MB/s,或一個旋轉硬碟

  • 10GbE 網路可以支援約 1.25GB/s,可能支援 10-12 個旋轉硬碟

  • 25GbE 網路可以支援約 3.125GB/s,可能支援約 30 個旋轉硬碟

記憶體

記憶體主要限制每個節點的並行連線數。

您可以使用此公式計算每個節點的最大並行請求數

\(totalRam / ramPerRequest\)

若要計算每個請求使用的 RAM 量,請使用此公式

\(((2MiB + 128KiB) * driveCount) + (2 * 10MiB) + (2 * 1 MiB)\)

10MiB 是預設的 erasure block size v1。1 MiB 是預設的 erasure block size v2。

下表列出基於主機硬碟數量和可用系統 RAM 的節點上的最大並行請求數

硬碟數量

32 GiB 的 RAM

64 GiB 的 RAM

128 GiB 的 RAM

256 GiB 的 RAM

512 GiB 的 RAM

4 個硬碟

1,074

2,149

4,297

8,595

17,190

8 個硬碟

840

1,680

3,361

6,722

13,443

16 個硬碟

585

1,170

2.341

4,681

9,362

下表根據節點上的本機儲存總量,提供為 MinIO 分配記憶體的一般指南

主機儲存總量

建議的主機記憶體

高達 1 Tebibyte (Ti)

8GiB

高達 10 Tebibyte (Ti)

16GiB

高達 100 Tebibyte (Ti)

32GiB

高達 1 Pebibyte (Pi)

64GiB

超過 1 Pebibyte (Pi)

128GiB

重要

RELEASE.2024-01-28T22-35-53Z 開始,MinIO 在分散式設定中為每個節點預先分配 2GiB 的記憶體,並為單一節點設定預先分配 1GiB 的記憶體。

儲存裝置

對硬碟的獨佔存取權

MinIO 要求對提供的物件儲存的硬碟或磁碟區具有獨佔存取權。其他程序、軟體、腳本或人員不應直接對提供給 MinIO 的硬碟或磁碟區,或 MinIO 放置在其上的物件或檔案執行任何操作。

除非 MinIO 工程部門指示,否則請勿使用腳本或工具直接修改、刪除或移動所提供硬碟上的任何資料分片、同位分片或中繼資料檔案,包括從一個硬碟或節點移動到另一個硬碟或節點。此類操作很可能會導致廣泛的損毀和資料遺失,超出 MinIO 的修復能力。

使用直接連接的「本機」儲存裝置 (DAS)

DAS,例如本機連接的 JBOD(Just a Bunch of Disks)陣列,比網路連接的(NAS、SAN、NFS)儲存裝置提供顯著的效能和一致性優勢。

網路檔案系統磁碟區會破壞一致性保證

MinIO 嚴格的寫入後讀取寫入後列出一致性模型需要本機硬碟檔案系統。如果底層儲存磁碟區是 NFS 或類似的網路連接儲存磁碟區,則 MinIO 無法提供一致性保證。

使用具有標籤的 XFS 格式化硬碟

將硬碟格式化為 XFS,並以不包含 RAID 或其他集區設定的 JBOD 陣列的形式呈現給 MinIO。使用任何其他類型的備份儲存裝置 (SAN/NAS、ext4、RAID、LVM) 通常會導致效能、可靠性、可預測性和一致性降低。

格式化 XFS 硬碟時,請為每個硬碟應用一個唯一的標籤。例如,以下命令將四個硬碟格式化為 XFS,並應用對應的硬碟標籤。

mkfs.xfs /dev/sdb -L MINIODRIVE1
mkfs.xfs /dev/sdc -L MINIODRIVE2
mkfs.xfs /dev/sdd -L MINIODRIVE3
mkfs.xfs /dev/sde -L MINIODRIVE4

使用 /etc/fstab 掛載硬碟

MinIO 要求硬碟在重新啟動後維持其在掛載位置的順序。MinIO 支援將具有現有 MinIO 資料的硬碟任意遷移到新的掛載位置,無論是有意還是因作業系統層級行為所致。

必須使用 /etc/fstab 或類似的掛載控制系統,以一致的路徑掛載硬碟。例如

$ nano /etc/fstab

# <file system>        <mount point>    <type>  <options>         <dump>  <pass>
LABEL=MINIODRIVE1      /mnt/drive-1     xfs     defaults,noatime  0       2
LABEL=MINIODRIVE2      /mnt/drive-2     xfs     defaults,noatime  0       2
LABEL=MINIODRIVE3      /mnt/drive-3     xfs     defaults,noatime  0       2
LABEL=MINIODRIVE4      /mnt/drive-4     xfs     defaults,noatime  0       2

您可以使用 mount -a 在初始設定期間,將這些硬碟掛載到這些路徑。否則,作業系統應將這些硬碟掛載為節點啟動程序的一部分。

MinIO 強烈建議使用基於標籤的掛載規則,而不是基於 UUID 的規則。基於標籤的規則允許將不健康或無法運作的硬碟,替換為具有相符格式和標籤的替代硬碟。基於 UUID 的規則需要編輯 /etc/fstab 檔案,以將對應關係替換為新的硬碟 UUID。

注意

如果一個或多個遠端檔案掛載傳回錯誤或失敗,依賴於已掛載外部儲存裝置的雲端環境執行個體可能會遇到開機失敗。例如,如果一個或多個 EBS 磁碟區無法掛載,具有已掛載永續 EBS 磁碟區的 AWS ECS 執行個體可能無法使用標準 /etc/fstab 設定開機。

您可以設定 nofail 選項來關閉開機時的錯誤報告,並允許執行個體在發生一個或多個掛載問題的情況下開機。

您不應在具有本機連接硬碟的系統上使用此選項,因為關閉硬碟錯誤報告會阻止 MinIO 和作業系統以正常方式回應這些錯誤。

停用 XFS 錯誤重試

MinIO 強烈建議使用 max_retries 設定,針對以下錯誤類別停用 錯誤重試行為

  • EIO 讀取或寫入時發生錯誤

  • ENOSPC 錯誤:裝置上沒有剩餘空間

  • default 所有其他錯誤

預設的 max_retries 設定通常會指示檔案系統無限期地嘗試重試錯誤,而不是傳播錯誤。MinIO 可以適當地處理 XFS 錯誤,因此錯誤重試行為最多會引入不必要的延遲或效能降低。

以下腳本會逐一查看指定掛載路徑上的所有硬碟,並將 XFS max_retries 設定設定為 0 或「發生錯誤時立即失敗」,以適用於建議的錯誤類別。此腳本會忽略任何未手動掛載或透過 /etc/fstab 掛載的硬碟。修改 /mnt/drive 行以符合 MinIO 硬碟使用的模式。

#!/bin/bash

for i in $(df -h | grep /mnt/drive | awk '{ print $1 }'); do
      mountPath="$(df -h | grep $i | awk '{ print $6 }')"
      deviceName="$(basename $i)"
      echo "Modifying xfs max_retries and retry_timeout_seconds for drive $i mounted at $mountPath"
      echo 0 > /sys/fs/xfs/$deviceName/error/metadata/EIO/max_retries
      echo 0 > /sys/fs/xfs/$deviceName/error/metadata/ENOSPC/max_retries
      echo 0 > /sys/fs/xfs/$deviceName/error/metadata/default/max_retries
done
exit 0

您必須在所有 MinIO 節點上執行此腳本,並將腳本設定為在重新啟動時重新執行,因為 Linux 作業系統通常不會永久保留這些變更。您可以使用具有 @reboot 計時的 cron 工作,在節點重新啟動時執行上述腳本,並確保所有硬碟都停用了錯誤重試。使用 crontab -e 建立以下工作,修改腳本路徑以符合每個節點上的路徑

@reboot /opt/minio/xfs-retry-settings.sh

使用一致的硬碟類型和容量

確保 MinIO 部署中底層儲存裝置的硬碟類型(NVMe、SSD、HDD)一致。MinIO 不會區分儲存類型,也不支援在單一部署中設定「熱」或「溫」硬碟。混合使用硬碟類型通常會導致效能降低,因為部署中最慢的硬碟會成為瓶頸,而與速度更快的硬碟的功能無關。

在每個 MinIO 伺服器集區中的所有節點上,使用相同容量和類型的硬碟。MinIO 將每個硬碟的最大可用大小限制為部署中最小的大小。例如,如果部署有 15 個 10TB 硬碟和 1 個 1TB 硬碟,則 MinIO 會將每個硬碟的容量限制為 1TB。