GKE でバッチ ワークロードを実行するためのベスト プラクティス


このページでは、Google Kubernetes Engine(GKE)でバッチ処理プラットフォームを構築して最適化する際のベスト プラクティスについて説明します。次のようなベスト プラクティスについて説明します。

  • アーキテクチャ
  • ジョブ管理
  • マルチテナンシー
  • セキュリティ
  • キュー
  • ストレージ
  • パフォーマンス
  • 費用対効果
  • モニタリング

GKE は、データ処理、ML モデルのトレーニング科学シミュレーションの実行、その他のハイ パフォーマンス コンピューティング ワークロードなど、バッチ ワークロードのオーケストレーションを行うための優れたフレームワークを提供します。

ここで説明するベスト プラクティスは、GKE にバッチ ワークロードをデプロイするプラットフォーム管理者、クラウド アーキテクト、運用担当者を対象としています。GKE 上のバッチ処理プラットフォームのリファレンス アーキテクチャでは、このガイドで説明したベスト プラクティスの多くを紹介しています。このアーキテクチャは、独自の Google Cloud プロジェクトにデプロイできます。

バッチ ワークロードの仕組み

バッチ ワークロードは、ユーザーの介入なしに完了するまで実行されるタスクのグループです。タスクを定義するには、Kubernetes の Job リソースを使用します。バッチ プラットフォームは Job を受信し、受信した順にキューに入れます。バッチ プラットフォームのキューは、優先度、割り当て、割り当て可能なリソースなどの処理ロジックを適用します。Kubernetes では、バッチ処理パラメータのキューイングとカスタマイズを行うことで、使用可能なリソースの使用を最適化し、スケジュールされたジョブのアイドル時間を最小限に抑え、コスト削減を最大化できます。次の図は、バッチ プラットフォームを構成する GKE コンポーネントを示しています。

バッチ プラットフォーム管理

従来、バッチ プラットフォームには、デベロッパーとプラットフォーム管理者という 2 つの主要なユーザー ペルソナがあります。

  • デベロッパーが、プログラム、処理するデータ、Job の要件を指定して Job を送信します。次に、デベロッパーは Job 送信の確認と固有識別子を受け取ります。Job が完了すると、Job の出力または結果とともに、デベロッパーに通知が送信されます。
  • プラットフォーム管理者は、効率的で信頼性の高いバッチ処理プラットフォームを管理し、デベロッパーに提供します。

バッチ処理プラットフォームは、次の要件を満たす必要があります。

  • プラットフォーム リソースが適切にプロビジョニングされており、ユーザーの介入をほとんど、またはまったく必要とせずに Job を実行できること。
  • プラットフォーム リソースは、組織のセキュリティとオブザーバビリティのベスト プラクティスに沿って構成されます。
  • プラットフォーム リソースは可能な限り効率的に使用されます。リソース競合が発生した場合、最も重要な処理が最初に行われます。

GKE のバッチ プラットフォーム アーキテクチャを準備する

GKE 環境はノードで構成されます。ノードは Compute Engine 仮想マシン(VM)であり、グループ化されてクラスタを形成します。

次の表に、バッチ プラットフォーム アーキテクチャの計画と設計における主な推奨事項を示します。

推奨事項 関連情報
GKE の運用モードを選択する

GKE では、次の運用モードを使用できます。

  • Autopilot モードの GKE は、ノード、スケーリング、セキュリティ、その他の事前構成された設定などのクラスタ構成を自動的に管理するため、ユーザーはワークロードに集中できます。Autopilot クラスタは、デフォルトで高可用性になります。
  • Standard モードでは、ノード、スケーリング、セキュリティ、その他の詳細設定を含むクラスタ構成を定義して管理します。

Autopilot と標準モードの概要の比較をご覧ください。

ノードのマシンタイプを選択する

GKE は、次の Compute Engine VM シリーズをサポートしています。

  • コスト最適化(E2 など)
  • バランス(N2、N2D、N1 など)
  • スケールアウト最適化(Tau T2D、Tau T2A など)
  • メモリ最適化(M2 や M1 など)
  • コンピューティング最適化(C2、C2D など)
  • アクセラレータ最適化(NVIDIA A100 GPU を搭載した A2、NVIDIA L4 GPU を搭載した G2、NVIDIA H100 GPU を搭載した A3(限定公開プレビューで利用可能)など)

各マシンシリーズは、Intel や AMD の Arm プロセッサや x86 プロセッサなど、1 つ以上の CPU プラットフォームに関連付けられています。

ワークロードで現在利用可能なオプションについて学習する

ハードウェア アクセラレータをノードで使用する

GKE では、グラフィック プロセッシング ユニット(GPU)や Tensor Processing Unit(TPU)などのハードウェア アクセラレータを使用することもできます。GPU 時間共有戦略を検討してください。これにより、複数のコンテナが同じ物理 GPU で時間を共有できます。 このアプローチは、リクエストが少ないバースト可能な同種 GPU ワークロードに役立ちます。マルチインスタンス GPU を使用して GPU をパーティショニングし、1 つの GPU リソースを複数のコンテナで同時に共有します。

標準クラスタでクラスタ オートスケーラーを有効にする

GKE は、ワークロードの需要に基づいて、特定のノードプール内のノード数を自動的に変更します。ノードを手動で追加または削除する必要はありません。また、ノードプールを過剰にプロビジョニングする必要もありません。代わりに、ノードプールの最小サイズと最大サイズのみを指定します。

クラスタ オートスケーラーは、次の構成で設定することをおすすめします。

  • optimize-utilization プロファイルを使用します。未使用のノードをバランス プロファイルの最大3倍の速度で削除できます。詳細については、自動スケーリング プロファイルをご覧ください。
  • ロケーション ポリシーを ANY に設定します。GKE クラスタ オートスケーラーは、未使用の予約の使用を優先し、リージョン内の使用可能なゾーンにノードを作成します。詳しくは、ロケーション ポリシーをご覧ください。
  • ノードの自動プロビジョニングを有効にして、インフラストラクチャを自動的に管理、自動スケーリングします。自動プロビジョニングを使用してノードプールを作成すると、クラスタ オートスケーラーはノードプールを動的にスケーリングできます。詳細については、ノードの自動プロビジョニングの仕組みをご覧ください。

Autopilot クラスタを使用すると、ノードプールがノード自動プロビジョニングによって自動的にプロビジョニングされ、またワークロードの要件に合わせて自動的にスケーリングされるため、ノードのプロビジョニングやノードプールの管理について心配する必要はありません。

クラスタをリリース チャンネルに登録する

GKE は、クラスタのバージョンとアップグレードを自動的に管理できます。リリース適応モデルに基づいて、クラスタを GKE の使用可能なチャネルに登録できます。

詳細については、クラスタに最適なリリース チャンネルを選択する方法をご覧ください。

クラスタから除外するメンテナンスのスコープを定義する

アップグレード スコープの除外ウィンドウが定義されている場合、GKE は、長時間実行されるバッチ ワークロードが完了するまで、メンテナンスによって中断されません。

詳細については、除外するメンテナンスの範囲をご覧ください。

Job のライフサイクルを管理する

Kubernetes では、一連の Pod でワークロードを実行します。Pod は、共有ストレージとネットワーク リソースをもつ単一または複数のコンテナのグループです。Pod は Kubernetes 仕様によって定義されます。

Job は 1 つ以上の Pod を作成し、指定された数の Pod が正常に終了するまでそれらの実行を再試行し続けます。Pod が完了すると、Job は正常に完了した数を追跡します。指定した回数が正常に完了すると、Job は完了します。

次の表に、Job を設計および管理する際の主な推奨事項を示します。

推奨事項 関連情報
Job 完了モードを選択する [完了モード] を Indexed として指定します。この構成は、Pod のインデックスに基づいて処理するデータのパーティションを割り当てる場合に便利です。Job の Pod は、関連付けられた完了インデックスを取得します。Job を削除すると、Job で作成された Pod がクリーンアップされます。Job を一時停止すると、Job が再開されるまで、その Job のアクティブな Pod が削除されます。
定期的にスケジュールされるアクションに対して CronJob を設定する GKE 用の CronJob を使用して、バックアップ、レポート生成、ML モデルのスケジュールされたトレーニングなど、スケジュール設定された定期的なアクションを実行します。
Job の失敗を管理する Job 内の再試行可能と再試行不可能な障害を処理する Kubernetes Pod の障害ポリシーと Pod バックオフの障害上限を定義します。この定義により、Pod の不要な再試行と Pod の中断による Job の失敗を回避することで、クラスタ リソースの消費を改善できます。たとえば、プリエンプションAPI が開始したエビクション、または taint ベースのエビクションNoExecute taint 効果で許容範囲のない Pod が強制排除される)の構成が可能です。Pod の障害ポリシーを使用して、再試行可能な Pod と再試行できない Pod の障害を処理する方法を確認する。
複数の Job を 1 つのユニットとして管理する JobSet API を使用して、複数の Job を 1 つの単位として管理し、1 つのドライバ(またはコーディネーター)や複数のワーカー(MPIJob など)などのワークロード パターンに対処します。その一方で、ユースケースに基づいて一般的なパターンに沿った Job のデフォルトを設定します。たとえば、デフォルトでインデックス登録された Job を作成し、Pod 用に予測可能な完全修飾ドメイン名(FQDN)用のヘッドレス サービスを作成して、関連する Pod 障害ポリシーを設定できます。
再起動を許容しない Pod の実行時間を延長する Pod 仕様で Kubernetes cluster-autoscaler.kubernetes.io/safe-to-evict アノテーションを false に設定します。クラスタ オートスケーラーは、Pod に設定されているエビクション ルールを考慮します。この制限により、cluster-autoscaler.kubernetes.io/safe-to-evict アノテーションが付いた Pod が含まれている場合に、オートスケーラーによってノードが削除されるのを防ぐことができます。

詳細については、Pod のスケジューリングと停止の考慮をご覧ください。

マルチテナンシーの管理

GKE クラスタマルチテナンシーは、1 つの組織で、テナントと呼ばれるさまざまなユーザーまたはワークロードで GKE リソースを管理する代わりに使用できる手段です。GKE リソースの管理は、テナントの分離、割り当てと上限の範囲、費用の割り当てなどの条件に従う場合があります。

次の表に、マルチテナンシーを管理する際の主な推奨事項を示します。

推奨事項 関連情報
Namespace を使用してテナント分離を管理する 各テナントとその Kubernetes リソースをそれぞれ独自の名前空間に分離できます。
ポリシーを使用してテナント分離を適用する ポリシーを定義して、API アクセス、割り当て、リソース使用量、コンテナで許可される操作を制限します。これらのポリシーは名前空間でスコープされます。
GKE の費用割り当てを設定する GKE の費用割り当てを使用して、名前空間ごとに各テナントのクラスタ リソース リクエストに関する分析情報を取得します。

バッチ プラットフォームへのアクセスを制御する

GKE を使用すると、クラスタ上で実行されるワークロードのアクセス権限を微調整できます。

次の表は、アクセスとセキュリティを管理する際の主な推奨事項を示しています。

推奨事項 リソース
Workload Identity Federation for GKE を設定する GKE により、GKE クラスタ内のワークロードは、Identity and Access Management(IAM)サービス アカウントの権限を借用して Google Cloud サービスにアクセスできます。GKE 用 Workload Identity 連携を使用すると、ワークロードは GKE の外部に保存されている Secret に安全にアクセスできます。

詳細については、GKE 用 Workload Identity 連携保存されている Secret にアクセスするをご覧ください。

クラスタ ネットワーク分離を設定する コントロール プレーン エンドポイントとワーカーノードの両方が内部 IP アドレスを持つことができるように、クラスタのネットワーク分離を構成します。

詳細については、ネットワーク分離のカスタマイズについてをご覧ください。

シールドされた GKE ノードを使用する シールドされた GKE ノードを構成して、強固で検証可能なノード ID と整合性を提供し、GKE ノードのセキュリティを強化します。
物理的な分離 セキュリティ上の理由から、ワークロードの分離を強化する必要がある場合があります。ノード taints でスケジューリングを制御し、ノード taints とワークロードの toleration を使用して、ノードプール内のテナントを物理的に分離します。これにより、適切なワークロードのみがそれらのノードプールにスケジュールされるようになります。

キューと公平な共有

リソースの使用量を制御するには、テナントごとにリソース割り当て上限を割り当て、受信 Job をキューに入れて、Job を受信順に処理します。

次の表に、バッチ ワークロード間のキューと公平な共有を管理する際の主な推奨事項を示します。

推奨事項 関連情報
Kueue を使用する

Kueue は、Kubernetes クラスタ内のバッチ、ハイ パフォーマンス コンピューティング、ML、および同様のアプリケーションのための Kubernetes ネイティブの Job のキューイング システムです。テナント間でクラスタ リソースを公平に共有できるように、Kueue は割り当てと Job による使用方法を管理します。Kueue は次の決定を行います。

  • Job が待機するタイミング
  • Pod の作成などで、Job の開始が許可されるタイミング
  • Pod の削除などで、Job をプリエンプトする必要があるタイミング

Job のキューイング システムの実装方法については、GKE の Namespace 間で割り当てを共有するジョブ キューイング システムを実装するをご覧ください。

Kueue の詳細については、Kueue のコンセプトをご覧ください。

ストレージ、パフォーマンス、費用対効果

GKE のコンピューティング リソースとストレージ リソースを効率的に使用することで、費用を削減できます。 1 つの戦略は、パフォーマンスを犠牲にすることなく、バッチ処理のニーズに応じてコンピューティング インスタンスのサイズと構成を適正化することです。

次の表に、ストレージの設計と管理、およびパフォーマンスの最適化に関する主な推奨事項を示します。

推奨事項 関連情報
Compute Engine Persistent Disk を使用する

次の Compute Engine Persistent Disk 構成を使用することをおすすめします。

ネットワーク接続ストレージを使用する

最適なストレージ パフォーマンスを得るには、永続ディスクとともに次のネットワーク接続ストレージを使用します。

  • Filestore を使用して、Pod 内のすべてのワーカーノードが同じストレージ名前空間にアクセスし、容量をスケーリングできるようにします。
  • Cloud Storage FUSE を使用して、コンテナからローカル POSIX マウントとして Cloud Storage に直接アクセスします。
Pub/Sub を定義する

バッチ ワークロードでは、データの読み取りと書き込みを行うこともできます。たとえば、Pub/Sub を使用して BigQuery などのデータ ウェアハウスに結果を書き込み、そこからレポートとダッシュボードを更新できます。

次のストレージ ソリューションを使用することをおすすめします。

  • マネージド オブジェクト ストレージの場合は、Cloud Storage を使用します。
  • マネージド ネットワーク ファイル ストレージの場合は、Filestore を使用します。
  • ファイル システム セマンティクスを必要とするワークロードには、Cloud Storage FUSE CSI ドライバを使用します。このドライバにより、Kubernetes アプリケーションは Cloud Storage バケットをローカル ファイル システムとしてマウントできます。
ワークロードの調整パラメータを指定する

次の構成を使用することをおすすめします。

  • ワークロードに合わせてノードシステム構成をカスタマイズします。たとえば、TCP ソケットの受信バッファの最小値、デフォルト値、最大値を設定します。ノードシステム構成を使用します。
  • ネットワーク プロファイルを使用してビジー ポーリングを有効にします。ネットワーク レイテンシの影響を受けやすいワークロードの一部が改善される可能性があります。ネットワーク プロファイルを使用します。
  • Google Virtual NIC(gVNIC)(高パフォーマンス アプリケーションに推奨される Compute Engine 専用に設計されている仮想ネットワーク インターフェース)を有効にして、GKE ノードのネットワーク帯域幅を増やします。
  • 同時マルチスレッディングを無効にするには、コアあたりのスレッド数を指定します。
ワークロードのネットワークとレイテンシを最適化する GKE はノードプールのコンパクト プレースメント ポリシーをサポートしています。このポリシーでは、ゾーン内でこれらのノード(つまり、それらのワークロード上で実行されているワークロード)をお互い物理的に近接した場所に配置するように指定します。これは、密結合で高パフォーマンスのワークロードに特に役立ちます。この場合、ワークロードを構成する異なるプロセス間の低レイテンシが大きな懸念事項となります。詳しくは、コンパクト プレースメントをご覧ください。
Spot VM を使用する

Spot VM は標準の Compute Engine VM より料金が安く、可用性を保証しない Compute Engine 仮想マシン(VM)インスタンスです。

次のソリューションを使用することをおすすめします。

  • location_policy= "ANY" と組み合わせて自動スケーリング Spot VM ノードプールを設定します。このポリシーを使用すると、Spot VM がプリエンプトされるリスクが低くなります。この組み合わせは、個々のワーカーノードのプリエンプションに耐えられるワークロード(並列計算など)に特に便利です。
  • ワークロードに予測可能なリソース フットプリントがある場合は、Google Cloud Reservations確約利用割引を組み合わせることで、大幅なコスト削減を実現できます。サイズを予約済みインスタンスの数に設定してノードプールを作成し、最大限に使用するために、このノードプールの飽和を優先します。
イメージ ストリーミングを使用する

イメージ ストリーミングを使用してコンテナ イメージを pull するGKE は対象のイメージからデータをストリーミングします。これにより、イメージ全体のダウンロードを待たずにワークロードを初期化できるため、初期化時間が大幅に短縮され、費用対効果が向上します。

モニタリング

GKE には、クラスタの信頼性と効率性のモニタリングに役立つ、オブザーバビリティ ツールとロギングツールが統合されています。次の表に、GKE オブザーバビリティ ツールを有効にして使用する際の主な推奨事項を示します。

推奨事項 関連情報
Prometheus を使用する

GKE は Google Cloud Observability と統合されています。GKE が Cloud Logging と Cloud Monitoring に送信する指標をカスタマイズします

Google Cloud Managed Service for Prometheus は、GKE クラスタではデフォルトで有効になっています。マネージド コレクションを使用して、Prometheus サーバーのセットアップやメンテナンスの複雑さを解消することをおすすめします。

詳細については、Managed Service for Prometheus をご覧ください。

Cloud Monitoring ダッシュボードを使用する

GKE 用 Monitoring ダッシュボードを使用すると、クラスタとリソースの使用状況の概要を確認し、さまざまな指標とディメンションにドリルダウンしてフィルタリングできます。

詳細については、GKE クラスタの観察をご覧ください。

次のステップ