Dataproc on GKE を使用すると、Dataproc jobs API on GKE クラスタを使用して Big Data アプリケーションを実行できます。Google Cloud コンソール、Google Cloud CLI、または Dataproc API(HTTP リクエストまたは Cloud クライアント ライブラリ)を使用して、GKE 仮想クラスタで Dataproc を作成し、Spark を送信します。その後、PySpark、SparkR、または Spark-SQL ジョブを Dataproc サービスに対して実行します。
Dataproc on GKE では、GKE クラスタに Dataproc 仮想クラスタがデプロイされます。Dataproc on Compute Engine クラスタとは異なり、Dataproc on GKE 仮想クラスタには、個別のマスター VM とワーカー VM が含まれません。代わりに、Dataproc on GKE 仮想クラスタを作成すると、Dataproc on GKE によって GKE クラスタ内にノードプールが作成されます。Dataproc on GKE ジョブは、こうしたノードプールで Pod として実行されます。ノードプールとノードプール上の Pod のスケジューリングは、GKE が管理します。
[[["わかりやすい","easyToUnderstand","thumb-up"],["問題の解決に役立った","solvedMyProblem","thumb-up"],["その他","otherUp","thumb-up"]],[["わかりにくい","hardToUnderstand","thumb-down"],["情報またはサンプルコードが不正確","incorrectInformationOrSampleCode","thumb-down"],["必要な情報 / サンプルがない","missingTheInformationSamplesINeed","thumb-down"],["翻訳に関する問題","translationIssue","thumb-down"],["その他","otherDown","thumb-down"]],["最終更新日 2025-03-12 UTC。"],[[["Dataproc on GKE enables the execution of Big Data applications on GKE clusters through the Dataproc `jobs` API."],["You can create a Dataproc on GKE virtual cluster and then submit Spark, PySpark, SparkR, or Spark-SQL jobs via the Google Cloud console, Cloud CLI, or the Dataproc API."],["Dataproc on GKE utilizes virtual clusters, which, unlike Dataproc on Compute Engine clusters, do not have separate master and worker VMs."],["Dataproc on GKE job are run as pods on node pools and is managed by GKE."],["Dataproc on GKE supports Spark 3.5 versions."]]],[]]