Staging-Buckets für Serverless for Apache Spark

Dieses Dokument enthält Informationen zu Staging-Buckets für Serverless für Apache Spark. Mit Serverless for Apache Spark wird ein Cloud Storage-Staging-Bucket in Ihrem Projekt erstellt oder ein vorhandener Staging-Bucket aus vorherigen Anfragen zur Batcherstellung wiederverwendet. Dies ist der Standard-Bucket, der von Dataproc in Compute Engine-Clustern erstellt wird. Weitere Informationen finden Sie unter Dataproc-Staging- und temporäre Buckets.

Bei Serverless for Apache Spark werden Arbeitslastabhängigkeiten, Konfigurationsdateien und die Konsolenausgabe des Jobtreibers im Staging-Bucket gespeichert.

Serverless for Apache Spark legt regionale Staging-Buckets an Cloud Storage-Speicherorten entsprechend der Compute Engine-Zone fest, in der Ihre Arbeitslast bereitgestellt wird. Anschließend werden diese Buckets auf Projektebene pro Speicherort erstellt und verwaltet. Von Serverless für Apache Spark erstellte Staging-Buckets werden für Workloads in derselben Region freigegeben und mit einer Aufbewahrungsdauer für das vorläufige Löschen von 0 Sekunden erstellt.