文件

批次複製

MinIO 版本的新增功能:RELEASE.2022-10-08T20-11-00Z

批次框架是在 mc RELEASE.2022-10-08T20-11-00Z 中引入 replicate 作業類型時推出的。

MinIO 批次框架可讓您使用 YAML 格式的作業定義檔案(「批次檔案」)建立、管理、監控和執行作業。批次作業直接在 MinIO 部署上執行,以利用伺服器端處理能力,而不會受到您執行 MinIO Client 之本機的限制。

replicate 批次作業會將物件從一個 MinIO 部署(source 部署)複製到另一個 MinIO 部署(target 部署)。sourcetarget 必須本機部署。

與使用 mc mirror 相比,MinIO 部署之間的批次複製具有以下優勢:

  • 消除了客戶端到叢集網路作為潛在瓶頸

  • 使用者只需要啟動批次作業的存取權,而無需其他權限,因為該作業完全在叢集上的伺服器端執行

  • 該作業會在物件無法複製時提供重試嘗試

  • 批次作業是一次性、經過策劃的流程,可精細控制複製

  • (僅限 MinIO 到 MinIO)複製流程會將物件版本從來源複製到目標

MinIO 版本變更:伺服器 RELEASE.2023-02-17T17-52-43Z

透過指定 MINIO_BATCH_REPLICATION_WORKERS 環境變數,同時以多個工作程式執行批次複製。

從 MinIO 伺服器 RELEASE.2023-05-04T21-44-30Z 開始,另一個部署可以是另一個 MinIO 部署,也可以是使用即時儲存類別的任何 S3 相容位置。在複製 YAML 檔案中使用篩選選項,以排除儲存在需要重新調合或其他還原方法才能提供所要求物件的位置中的物件。對這些類型的遠端進行批次複製時,會使用 mc mirror 行為。

行為

存取控制和需求

批次複製與儲存桶複製具有相似的存取和權限要求。

「來源」部署的憑證必須具有類似以下的政策:

{
    "Version": "2012-10-17",
    "Statement": [
        {
            "Action": [
                "admin:SetBucketTarget",
                "admin:GetBucketTarget"
            ],
            "Effect": "Allow",
            "Sid": "EnableRemoteBucketConfiguration"
        },
        {
            "Effect": "Allow",
            "Action": [
                "s3:GetReplicationConfiguration",
                "s3:ListBucket",
                "s3:ListBucketMultipartUploads",
                "s3:GetBucketLocation",
                "s3:GetBucketVersioning",
                "s3:GetObjectRetention",
                "s3:GetObjectLegalHold",
                "s3:PutReplicationConfiguration"
            ],
            "Resource": [
                "arn:aws:s3:::*"
            ],
            "Sid": "EnableReplicationRuleConfiguration"
        }
    ]
}

「遠端」部署的憑證必須具有類似以下的政策:

{
    "Version": "2012-10-17",
    "Statement": [
        {
            "Effect": "Allow",
            "Action": [
                "s3:GetReplicationConfiguration",
                "s3:ListBucket",
                "s3:ListBucketMultipartUploads",
                "s3:GetBucketLocation",
                "s3:GetBucketVersioning",
                "s3:GetBucketObjectLockConfiguration",
                "s3:GetEncryptionConfiguration"
            ],
            "Resource": [
                "arn:aws:s3:::*"
            ],
            "Sid": "EnableReplicationOnBucket"
        },
        {
            "Effect": "Allow",
            "Action": [
                "s3:GetReplicationConfiguration",
                "s3:ReplicateTags",
                "s3:AbortMultipartUpload",
                "s3:GetObject",
                "s3:GetObjectVersion",
                "s3:GetObjectVersionTagging",
                "s3:PutObject",
                "s3:PutObjectRetention",
                "s3:PutBucketObjectLockConfiguration",
                "s3:PutObjectLegalHold",
                "s3:DeleteObject",
                "s3:ReplicateObject",
                "s3:ReplicateDelete"
            ],
            "Resource": [
                "arn:aws:s3:::*"
            ],
            "Sid": "EnableReplicatingDataIntoBucket"
        }
    ]
}

請參閱 mc admin usermc admin user svcacctmc admin policy 以獲取有關向 MinIO 部署新增使用者、存取金鑰和政策的更完整文件。

針對 Active Directory/LDAPOpenID Connect 使用者管理配置的 MinIO 部署,可以改為建立專用的 存取金鑰 以支援批次複製。

篩選複製目標

批次作業定義檔可以透過儲存桶、前綴和/或篩選器來限制複製,僅複製特定物件。複製過程對物件和儲存桶的存取,可能會受到您在 YAML 中為來源或目標目的地提供的憑證限制。

版本變更於 MinIO: Server RELEASE.2023-04-07T05-28-58Z

您可以從遠端 MinIO 部署複製到執行批次作業的本機部署。

例如,您可以使用批次作業執行一次性複製同步,將物件從本機部署的 minio-local/invoices/ 的儲存桶推送到遠端部署的 minio-remote/invoices 的儲存桶。您也可以將物件從遠端部署的 minio-remote/invoices 拉到本機部署的 minio-local/invoices

小型檔案最佳化

RELEASE.2023-12-09T18-17-51Z 開始,預設情況下,批次複製會自動批次處理並壓縮小於 5MiB 的物件,以有效率地在來源和遠端之間傳輸資料。遠端 MinIO 部署可以檢查並立即將生命週期管理分層規則應用於批次處理的物件。此功能類似於 S3 Snowball Edge 小型檔案批次處理提供的功能。

您可以在 replicate 作業組態中修改壓縮設定。

複製批次作業參考

YAML **必須** 定義來源和目標部署。如果 *來源* 部署是遠端的,則 *目標* 部署**必須**是 local。或者,YAML 也可以定義旗標來篩選要複製的物件、為作業傳送通知,或定義作業的重試次數。

版本變更於 MinIO: RELEASE.2023-04-07T05-28-58Z

您可以從遠端 MinIO 部署複製到執行批次作業的本機部署。

版本變更於 MinIO: RELEASE.2024-08-03T04-33-23Z

此版本引入了新版本的批次作業複製 API,v2。更新後的 API 可讓您列出來源上的多個前綴以進行複製。若要從來源複製多個前綴,請將 replicate.apiVersion 指定為 v2

replicate:
  apiVersion: v2
  source:
    type: minio
    bucket: mybucket
    prefix:
      - prefix1
      - prefix2
...

對於**來源部署**

  • 必要資訊

    type

    必須是 minio

    bucket

    部署上的儲存桶。

  • 選用資訊

    prefix

    應複製的物件的前綴。
    從 MinIO Server RELEASE.2024-08-03T04-33-23Z 開始,批次作業複製 API 的 v2 版本允許您列出多個前綴。
    replicate.apiVersion 指定為 v2 以從多個前綴複製。

    endpoint

    用於複製批次作業的來源或目標的部署位置。
    例如,https://minio.example.net

    如果部署是 mc alias set 指定給命令的別名,請省略此欄位,以指示 MinIO 使用該別名作為端點和憑證值。
    來源部署*或*遠端部署*必須*是 「本機」別名。
    非「本機」部署必須指定 endpointcredentials

    path

    指示 MinIO 使用路徑或虛擬樣式 (DNS) 查找儲存桶。

    - 指定 on 以使用路徑樣式
    - 指定 off 以使用虛擬樣式
    - 指定 auto 以讓 MinIO 判斷正確的查找樣式。

    預設為 auto

    credentials

    授予存取物件權限的 accesskey:secretKey:sessionToken:
    僅針對不是 本機部署的部署指定。

    snowball

    新增版本: RELEASE.2023-12-09T18-17-51Z

    用於控制批次處理和壓縮功能組態選項。

    snowball.disable

    指定 true 以在複製期間停用批次處理和壓縮功能。
    預設為 false

    snowball.batch

    指定要壓縮批次處理的最大物件整數數目。
    預設為 100

    snowball.inmemory

    指定 false 以使用本機儲存空間來暫存封存檔,或指定 true 以暫存到記憶體 (RAM)。
    預設為 true

    snowball.compress

    指定 true 以使用 S2/Snappy 壓縮演算法產生透過網路傳輸的壓縮批次處理物件。
    預設為 false 或不壓縮。

    snowball.smallerThan

    指定 MinIO 應該批次處理的物件大小(以兆位元組 (MiB) 為單位)。
    預設為 5MiB

    snowball.skipErrs

    指定 false 以指示 MinIO 在讀取時產生錯誤的任何物件上停止。
    預設為 true

對於**目標部署**

  • 必要資訊

    type

    必須是 minio

    bucket

    部署上的儲存桶。

  • 選用資訊

    prefix

    要複製的物件的前綴。

    endpoint

    目標部署的位置。

    如果目標是 別名 指定給命令的別名,則可以省略此欄位和 credentials 欄位。
    如果目標是「本機」,則來源*必須*使用 endpointcredentials 指定遠端部署。

    credentials

    授予存取物件權限的 accesskeysecretKeysessionToken

對於**篩選器**

newerThan

#d#h#s 格式表示時間長度的字串。

僅複製晚於指定時間長度的物件。例如,7d24h5d12h30s 是有效的字串。

olderThan

#d#h#s 格式表示時間長度的字串。

僅複製早於指定時間長度的物件。

createdAfter

YYYY-MM-DD 格式表示的日期。

僅複製在此日期之後建立的物件。

createdBefore

YYYY-MM-DD 格式表示的日期。

僅複製在此日期之前建立的物件。

對於**通知**

endpoint

用於傳送事件以進行通知的預先定義端點。

token

用於存取 endpoint 的選用 JWT <JSON Web Token>

對於**重試次數**

如果作業中斷,您可以定義重試作業批次的次數。對於每次重試,您也可以定義每次嘗試之間要等待的時間長度。

attempts

在放棄之前完成批次作業的嘗試次數。

delay

每次嘗試之間要等待的最短時間。

replicate 作業類型的 YAML 範例描述檔

使用 mc batch generate 來建立基本 replicate 批次作業以進行進一步自訂。

對於 本機部署,請勿指定端點或憑證。根據哪一個是 local,刪除或註解來源或目標區段的這些行。

replicate:
  apiVersion: v1
  # source of the objects to be replicated
  source:
    type: TYPE # valid values are "s3" or "minio"
    bucket: BUCKET
    prefix: PREFIX # 'PREFIX' is optional
    # If your source is the 'local' alias specified to 'mc batch start', then the 'endpoint' and 'credentials' fields are optional and can be omitted
    # Either the 'source' or 'remote' *must* be the "local" deployment
    endpoint: "http[s]://HOSTNAME:PORT" 
    # path: "on|off|auto" # "on" enables path-style bucket lookup. "off" enables virtual host (DNS)-style bucket lookup. Defaults to "auto"
    credentials:
      accessKey: ACCESS-KEY # Required
      secretKey: SECRET-KEY # Required
    # sessionToken: SESSION-TOKEN # Optional only available when rotating credentials are used
    snowball: # automatically activated if the source is local
      disable: false # optionally turn-off snowball archive transfer
      batch: 100 # upto this many objects per archive
      inmemory: true # indicates if the archive must be staged locally or in-memory
      compress: false # S2/Snappy compressed archive
      smallerThan: 5MiB # create archive for all objects smaller than 5MiB
      skipErrs: false # skips any source side read() errors

  # target where the objects must be replicated
  target:
    type: TYPE # valid values are "s3" or "minio"
    bucket: BUCKET
    prefix: PREFIX # 'PREFIX' is optional
    # If your source is the 'local' alias specified to 'mc batch start', then the 'endpoint' and 'credentials' fields are optional and can be omitted

    # Either the 'source' or 'remote' *must* be the "local" deployment
    endpoint: "http[s]://HOSTNAME:PORT"
    # path: "on|off|auto" # "on" enables path-style bucket lookup. "off" enables virtual host (DNS)-style bucket lookup. Defaults to "auto"
    credentials:
      accessKey: ACCESS-KEY
      secretKey: SECRET-KEY
    # sessionToken: SESSION-TOKEN # Optional only available when rotating credentials are used

  # NOTE: All flags are optional
  # - filtering criteria only applies for all source objects match the criteria
  # - configurable notification endpoints
  # - configurable retries for the job (each retry skips successfully previously replaced objects)
  flags:
    filter:
      newerThan: "7d" # match objects newer than this value (e.g. 7d10h31s)
      olderThan: "7d" # match objects older than this value (e.g. 7d10h31s)
      createdAfter: "date" # match objects created after "date"
      createdBefore: "date" # match objects created before "date"

      ## NOTE: tags are not supported when "source" is remote.
      # tags:
      #   - key: "name"
      #     value: "pick*" # match objects with tag 'name', with all values starting with 'pick'

      # metadata:
      #   - key: "content-type"
      #     value: "image/*" # match objects with 'content-type', with all values starting with 'image/'

    notify:
      endpoint: "https://notify.endpoint" # notification endpoint to receive job status events
      token: "Bearer xxxxx" # optional authentication token for the notification endpoint

    retry:
      attempts: 10 # number of retries for the job before giving up
      delay: "500ms" # least amount of delay between each retry