GKE のスケーラビリティについて


このページでは、Google Kubernetes Engine(GKE)クラスタでの大規模なワークロードの計画、設計、デプロイ、スケーリング、運用に関する一連の推奨事項について説明します。これらの推奨事項に従って、スケーリング ワークロードをサービスレベル目標(SLO)内に維持することをおすすめします。

スケーラビリティに利用できる推奨事項

GKE アーキテクチャの計画と設計の前に、ワークロードに固有のパラメータ(例えば、アクティブ ユーザーの数、予想される応答時間、必要なコンピューティング リソース)を Kubernetes で使用されるリソース(Pod、Service、CustomResourceDefinition)とマッピングします。このマッピングした情報で、GKE のスケーラビリティの推奨事項を確認します。

スケーラビリティの推奨事項は、次の計画スコープに基づいて分類されます。

  • スケーラビリティを計画する: 小規模と大規模の両方のクラスタで実行する場合の信頼性の高いパフォーマンスのためにワークロードとクラスタを設計するための一般的なベスト プラクティスについて学びます。これらの推奨事項は、アーキテクト、プラットフォーム管理者、Kubernetes のデベロッパーに役立ちます。詳細については、スケーラビリティを計画するをご覧ください。
  • 大規模な GKE クラスタを計画する: 非常に大規模な GKE クラスタの実行を計画する方法について学びます。Kubernetes と GKE の既知の上限と、それらへの到達を回避する方法について学びます。これらの推奨事項は、アーキテクトとプラットフォーム管理者に役立ちます。詳細については、大規模な GKE クラスタを計画するをご覧ください。
  • 大規模なワークロードを計画する: GKE で大規模な Kubernetes ワークロードを実行するアーキテクチャを計画する方法について学びます。プロジェクトとクラスタの中でワークロードを分散し、これらのワークロードに必要な割り当てを調整する際の推奨事項も対象にしています。これらの推奨事項は、アーキテクトとプラットフォーム管理者に役立ちます。詳細については、大規模なワークロードを計画するをご覧ください。

これらのスケーラビリティの推奨事項は、GKE で一般的であり、GKE Standard モードと GKE Autopilot モードの両方に適用できます。GKE Autopilot は、クラスタの基盤となるインフラストラクチャのプロビジョニングと管理を行うので、一部の推奨事項は適用されません。

次のステップ