Les composants Serverless pour Apache Spark vous permettent d'exécuter des charges de travail par lot Apache Spark à partir d'un pipeline dans Vertex AI Pipelines. Serverless pour Apache Spark exécute les charges de travail par lot sur une infrastructure de calcul gérée en effectuant un autoscaling des ressources selon les besoins.
En savoir plus sur Google Cloud Serverless pour Apache Spark et les charges de travail Spark compatibles
Dans Serverless pour Apache Spark, une ressource Batch
représente une charge de travail par lot.
Le SDK Google Cloud inclut les opérateurs suivants permettant de créer des ressources Batch
et de surveiller leur exécution :
Documentation de référence de l'API
Pour en savoir plus sur les composants, consultez la documentation de référence du SDKGoogle Cloud pour les composants Google Cloud Serverless pour Apache Spark .
Pour en savoir plus sur les ressources Serverless pour Apache Spark, consultez la page de référence de l'API suivante :
- Ressource
Batch
- Ressource
Tutoriels
Historique des versions et notes de version
Pour en savoir plus sur l'historique des versions et les modifications apportées au SDK des composants de pipeline Google Cloud , consultez les notes de version du SDK des composants de pipelineGoogle Cloud .
Contacts pour l'assistance technique
Si vous avez des questions, veuillez contacter kfp-dataproc-components@google.com.