文件

硬體檢查清單

在規劃生產環境、分散式 MinIO 部署的硬體配置時,請使用以下檢查清單。

考量事項

在為您的 MinIO 實作選擇硬體時,請考慮以下因素

  • 啟動時要儲存的資料預期量(以 TiB 為單位)

  • 至少未來兩年的資料大小預期成長

  • 物件數量(依平均物件大小)

  • 資料的平均保留時間(年)

  • 要部署的站點數量

  • 預期的儲存貯體數量

生產環境硬體建議

以下檢查清單遵循 MinIO 的 生產環境部署建議配置。所提供的指南旨在作為基準,不能取代 MinIO SUBNET 效能診斷、架構審查和直接工程支援。

MinIO 與任何分散式系統一樣,受益於為給定伺服器池中的所有節點選擇相同的配置。確保在集區節點之間選擇一致的硬體(CPU、記憶體、主機板、儲存配接器)和軟體(作業系統、核心設定、系統服務)。

如果節點具有不同的硬體或軟體配置,部署可能會表現出不可預測的效能。受益於將過時資料儲存在較低成本硬體上的工作負載,應該部署專用的「暖」或「冷」MinIO 部署,並轉換資料到該層。

MinIO 不提供託管服務或硬體銷售

請參閱我們的參考硬體頁面,以取得我們硬體合作夥伴精選的伺服器和儲存元件。

描述

最低限度

建議

專用裸機或虛擬主機(「主機」)。

4 個專用主機

8 個以上專用主機

每個主機的專用本機連接磁碟機.

每個 MinIO 伺服器 4 個磁碟機

每個 MinIO 伺服器 8 個以上磁碟機

高速網路基礎架構.

25GbE

100GbE

支援現代 SIMD 指令 (AVX-512) 的伺服器級 CPU,例如 Intel® Xeon® Scalable 或更佳。

每個主機 8 個 CPU/插槽或 vCPU

每個主機 16 個以上 CPU/插槽或 vCPU

透過合理的緩衝區可用記憶體以符合或超過每個伺服器的使用量

每個主機 32GB 的可用記憶體

每個主機 128GB 以上的可用記憶體

重要

以下區域對 MinIO 效能的影響最大,依重要性順序列出

網路基礎架構

不足或有限的輸送量會限制效能

儲存控制器

舊韌體、有限的輸送量或故障硬體會限制效能並影響可靠性

儲存 (磁碟機)

舊韌體或速度慢/老化/故障的硬體會限制效能並影響可靠性

在關注其他硬體資源(例如與計算相關的限制)之前,請優先保護每個這些區域的必要元件。

上述最低建議反映了 MinIO 在協助企業客戶在各種 IT 基礎架構上部署時,同時保持所需的 SLA/SLO 的經驗。雖然 MinIO 可能在低於最低建議拓樸的情況下執行,但任何潛在的成本節省都存在降低可靠性、效能或整體功能的風險。

網路

MinIO 建議使用高速網路來支援連接儲存(聚合磁碟機、儲存控制器和 PCIe 匯流排)的最大可能輸送量。下表提供一般指南,說明給定的實體或虛擬網路介面支援的最大儲存輸送量。此表假設所有網路基礎架構元件(例如路由器、交換器和實體纜線)也支援 NIC 頻寬。

NIC 頻寬 (Gbps)

估計的聚合儲存輸送量 (GBps)

10Gbps

1.25GBps

25Gbps

3.125GBps

50Gbps

6.25GBps

100Gbps

12.5GBps

網路連線對 MinIO 的效能影響最大,因為每個主機的低頻寬會人為地限制儲存的潛在效能。以下網路吞吐量限制的範例假設使用持續 I/O 約 100MB/s 的傳統硬碟。

  • 1GbE 網路連結最多可支援 125MB/s,或一顆傳統硬碟。

  • 10GbE 網路大約可支援 1.25GB/s,可能支援 10-12 顆傳統硬碟。

  • 25GbE 網路大約可支援 3.125GB/s,可能支援約 30 顆傳統硬碟。

記憶體

記憶體主要限制每個節點同時連線的數量。

您可以使用以下公式計算每個節點的最大同時請求數

\(totalRam / ramPerRequest\)

若要計算每個請求使用的 RAM 數量,請使用以下公式

\(((2MiB + 128KiB) * driveCount) + (2 * 10MiB) + (2 * 1 MiB)\)

10MiB 是預設的 Erasure 編碼區塊大小 v1。1 MiB 是預設的 Erasure 編碼區塊大小 v2。

下表列出基於主機磁碟數量和可用系統 RAM 的節點上最大同時請求數。

磁碟數量

32 GiB RAM

64 GiB RAM

128 GiB RAM

256 GiB RAM

512 GiB RAM

4 顆磁碟

1,074

2,149

4,297

8,595

17,190

8 顆磁碟

840

1,680

3,361

6,722

13,443

16 顆磁碟

585

1,170

2.341

4,681

9,362

下表提供根據節點上本機儲存總量分配 MinIO 使用的記憶體的一般指南

主機儲存總量

建議的主機記憶體

最多 1 Tebibyte (Ti)

8GiB

最多 10 Tebibyte (Ti)

16GiB

最多 100 Tebibyte (Ti)

32GiB

最多 1 Pebibyte (Pi)

64GiB

超過 1 Pebibyte (Pi)

128GiB

重要

RELEASE.2024-01-28T22-35-53Z 版本開始,MinIO 在分散式設定中每個節點預先分配 2GiB 的記憶體,在單節點設定中則預先分配 1GiB 的記憶體。

儲存

獨佔存取磁碟

MinIO 要求獨佔存取提供的磁碟或磁碟區以進行物件儲存。其他程序、軟體、腳本或人員不應在提供給 MinIO 的磁碟或磁碟區上,或 MinIO 放置在其中的物件或檔案上直接執行任何動作。

除非 MinIO 工程團隊指示,否則請勿使用腳本或工具直接修改、刪除或移動提供磁碟上的任何資料分片、同位分片或中繼資料檔案,包括從一個磁碟或節點到另一個磁碟或節點。此類操作很可能導致廣泛的損壞和資料遺失,超出 MinIO 的修復能力。

使用直連「本機」儲存 (DAS)

DAS,例如本地連接的 JBOD(Just a Bunch of Disks,僅一堆磁碟)陣列,比網路(NAS、SAN、NFS)儲存提供顯著的效能和一致性優勢。

網路檔案系統磁碟區破壞一致性保證

MinIO 嚴格的寫入後讀取寫入後列出一致性模型需要本機磁碟檔案系統。如果底層儲存磁碟區是 NFS 或類似的網路連接儲存磁碟區,MinIO 無法提供一致性保證。

使用標籤的 XFS 格式化磁碟

將磁碟格式化為 XFS,並以 JBOD 陣列的形式呈現給 MinIO,而沒有 RAID 或其他集區配置。使用任何其他類型的後端儲存(SAN/NAS、ext4、RAID、LVM)通常會導致效能、可靠性、可預測性和一致性降低。

格式化 XFS 磁碟時,請為每個磁碟套用唯一的標籤。例如,以下命令將四個磁碟格式化為 XFS,並套用相應的磁碟標籤。

mkfs.xfs /dev/sdb -L MINIODRIVE1
mkfs.xfs /dev/sdc -L MINIODRIVE2
mkfs.xfs /dev/sdd -L MINIODRIVE3
mkfs.xfs /dev/sde -L MINIODRIVE4

使用 /etc/fstab 掛載磁碟

MinIO 要求磁碟在重新啟動時維持其在掛載位置的順序。MinIO 不支援將具有現有 MinIO 資料的磁碟任意遷移到新的掛載位置,無論是有意為之還是由於作業系統層級的行為所導致。

必須使用 /etc/fstab 或類似的掛載控制系統,以在一致的路徑上掛載磁碟。例如

$ nano /etc/fstab

# <file system>        <mount point>    <type>  <options>         <dump>  <pass>
LABEL=MINIODRIVE1      /mnt/drive-1     xfs     defaults,noatime  0       2
LABEL=MINIODRIVE2      /mnt/drive-2     xfs     defaults,noatime  0       2
LABEL=MINIODRIVE3      /mnt/drive-3     xfs     defaults,noatime  0       2
LABEL=MINIODRIVE4      /mnt/drive-4     xfs     defaults,noatime  0       2

您可以使用 mount -a 在初始設定期間將這些磁碟掛載在這些路徑上。否則,作業系統應該會在節點啟動過程中掛載這些磁碟。

MinIO 強烈建議使用基於標籤的掛載規則,而不是基於 UUID 的規則。基於標籤的規則允許將不健康或無法運作的磁碟替換為具有匹配格式和標籤的替代磁碟。基於 UUID 的規則需要編輯 /etc/fstab 檔案,以將對應關係替換為新的磁碟 UUID。

注意

如果一個或多個遠端檔案掛載傳回錯誤或失敗,則依賴於已掛載外部儲存的雲端環境執行個體可能會遇到啟動失敗。例如,如果一個或多個 EBS 磁碟區無法掛載,則掛載持續 EBS 磁碟區的 AWS ECS 執行個體可能無法使用標準的 /etc/fstab 配置啟動。

您可以設定 nofail 選項以在啟動時關閉錯誤報告,並允許執行個體在一個或多個掛載問題的情況下啟動。

您不應在具有本機連接磁碟的系統上使用此選項,因為關閉磁碟錯誤會阻止 MinIO 和作業系統以正常方式回應這些錯誤。

停用 XFS 錯誤重試

MinIO 強烈建議使用 max_retries 配置來停用 錯誤重試行為,適用於以下錯誤類別

  • EIO 讀取或寫入時發生錯誤

  • ENOSPC 裝置上沒有空間的錯誤

  • default 所有其他錯誤

預設的 max_retries 設定通常指示檔案系統無限期地重試錯誤,而不是傳播錯誤。MinIO 可以適當地處理 XFS 錯誤,因此錯誤重試行為最多會導致不必要的延遲或效能下降。

以下腳本會迭代指定掛載路徑上的所有磁碟,並將 XFS max_retries 設定設為 0 或「立即在發生錯誤時失敗」,適用於建議的錯誤類別。該腳本會忽略未掛載的任何磁碟,無論是手動掛載還是透過 /etc/fstab 掛載。修改 /mnt/drive 行以符合您 MinIO 磁碟使用的模式。

#!/bin/bash

for i in $(df -h | grep /mnt/drive | awk '{ print $1 }'); do
      mountPath="$(df -h | grep $i | awk '{ print $6 }')"
      deviceName="$(basename $i)"
      echo "Modifying xfs max_retries and retry_timeout_seconds for drive $i mounted at $mountPath"
      echo 0 > /sys/fs/xfs/$deviceName/error/metadata/EIO/max_retries
      echo 0 > /sys/fs/xfs/$deviceName/error/metadata/ENOSPC/max_retries
      echo 0 > /sys/fs/xfs/$deviceName/error/metadata/default/max_retries
done
exit 0

您必須在所有 MinIO 節點上執行此腳本,並將腳本配置為在重新啟動時重新執行,因為 Linux 作業系統通常不會保留這些變更。您可以使用具有 @reboot 計時的 cron 工作,以便在節點重新啟動時執行上述腳本,並確保所有磁碟都已停用錯誤重試。使用 crontab -e 建立以下工作,並修改每個節點上的腳本路徑以符合該路徑

@reboot /opt/minio/xfs-retry-settings.sh

使用一致的磁碟類型和容量

確保 MinIO 部署中底層儲存的一致磁碟類型(NVMe、SSD、HDD)。MinIO 不會區分儲存類型,並且不支援在單一部署中配置「熱」或「溫」磁碟。混合磁碟類型通常會導致效能下降,因為部署中最慢的磁碟會成為瓶頸,無論較快磁碟的功能如何。

在每個 MinIO 伺服器集區中,跨所有節點使用相同容量和類型的磁碟。MinIO 會將每個磁碟的最大可用大小限制為部署中的最小大小。例如,如果部署中有 15 個 10TB 磁碟和 1 個 1TB 磁碟,則 MinIO 會將每個磁碟的容量限制為 1TB。