BigQuery-Preise
BigQuery ist eine serverlose Datenanalyseplattform. Zur Nutzung von BigQuery müssen Sie keine einzelnen Instanzen oder virtuellen Maschinen bereitstellen. Stattdessen weist BigQuery Rechenressourcen automatisch nach Bedarf zu. Sie können die Computing-Kapazität auch vorzeitig in Form von Slots reservieren, die virtuelle CPUs darstellen. Die Preisstruktur von BigQuery spiegelt dieses Design wider.
BigQuery-Preise
BigQuery-Preise haben zwei Hauptkomponenten:
Rechenpreise sind die Kosten für die Verarbeitung von Abfragen. Dazu gehören SQL-Abfragen, benutzerdefinierte Funktionen, Skripts sowie Anweisungen für bestimmte Datenbearbeitungssprachen (DML) und Datendefinitionssprachen (DDL).
Speicherpreise sind die Kosten für das Speichern von Daten, die Sie in BigQuery laden.
Für andere Vorgänge in BigQuery fallen Kosten an, z. B. für die Verwendung von BigQuery Omni, BigQuery ML, BI Engine sowie für Streaming-Lesevorgänge und Schreibvorgänge.
Darüber hinaus bietet BigQuery kostenlose Vorgänge und eine kostenlose Nutzungsstufe.
Jedes von Ihnen erstellte Projekt ist mit einem Rechnungskonto verknüpft. Alle Kosten, die für BigQuery-Jobs im Rahmen dieses Projekts entstehen, werden vom verknüpften Rechnungskonto abgebucht. Speichergebühren für BigQuery werden ebenfalls dem verknüpften Konto in Rechnung gestellt. Auf der Seite mit den Cloud Billing-Abrechnungsberichten erhalten Sie in der Google Cloud Console eine Übersicht über die BigQuery-Kosten und ‑Trends.
Preismodelle für Compute
BigQuery bietet zwei Preismodelle für die Computingleistung zum Ausführen von Abfragen:
On-Demand-Preise (pro TiB). Bei diesem Preismodell wird Ihnen die Anzahl der Byte in Rechnung gestellt, die bei jeder Abfrage verarbeitet werden. Das erste Tebibyte (1 TiB) an verarbeiteten Abfragedaten pro Monat ist kostenlos.
Kapazitätsbasierte Preise (pro Slot-Stunde). Bei diesem Preismodell wird Ihnen die Rechenkapazität in Rechnung gestellt, die zum Ausführen von Abfragen verwendet wird. Die Abrechnung erfolgt nach Slots (virtuellen CPUs) über einen bestimmten Zeitraum. Dieses Modell nutzt die Vorteile von BigQuery-Versionen. Sie können den BigQuery Autoscaler verwenden oder Slot-Zusicherungen erwerben. Dabei handelt es sich um dedizierte Kapazität, die immer für Ihre Arbeitslasten verfügbar ist – und zwar zu einem niedrigeren Preis.
Weitere Informationen zur Auswahl der Preise für Ihre Arbeitslasten finden Sie unter Arbeitslastverwaltung mit Reservierungen.
Preise für Gemini in BigQuery
Informationen zu den Preisen für Gemini in BigQuery finden Sie unter Preisübersicht für Gemini in BigQuery.
Preise für On-Demand-Computing
Abfragen werden standardmäßig nach dem On-Demand-Preismodell (pro TiB) abgerechnet, bei dem Sie für die von Ihren Abfragen gescannten Daten bezahlen.
Mit der On-Demand-Abrechnung können Sie im Allgemeinen auf bis zu 2.000 gleichzeitige Slots zugreifen, die von allen Abfragen in einem Projekt gemeinsam genutzt werden. In BigQuery wird das Limit regelmäßig überschritten, um kleinere Abfragen zu beschleunigen. Darüber hinaus haben Sie möglicherweise weniger Slots, wenn an einem bestimmten Standort ein hohes Konfliktpotenzial für On-Demand-Kapazität besteht.
Für On-Demand-Abfragepreise (pro TiB) gilt Folgendes:
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Preisinformationen
Beachten Sie die folgenden Informationen zu On-Demand-Abfragegebühren (pro TiB):
- BigQuery verwendet eine spaltenbasierte Datenstruktur. Es werden Ihnen die Kosten entsprechend den verarbeiteten Gesamtdaten in den ausgewählten Spalten in Rechnung gestellt, wobei die Gesamtdaten pro Spalte anhand der darin enthaltenen Datentypen berechnet werden. Unter Abfragekosten schätzen finden Sie weitere Informationen dazu.
- Ihnen werden Abfragen in Rechnung gestellt, die für freigegebene Daten ausgeführt werden. Dem Dateninhaber werden keine Kosten berechnet, wenn auf seine Daten zugegriffen wird.
- Abfragen, die einen Fehler oder Ergebnisse aus dem Cache zurückgeben, werden Ihnen nicht in Rechnung gestellt. Bei Jobs in prozeduralen Sprachen wird diese Berücksichtigung auf der Ebene der einzelnen Anweisungen vorgenommen.
- Die Kosten werden auf das nächste MB aufgerundet. Dabei gilt ein Minimum von 10 MB verarbeiteter Daten pro Tabelle, auf die die Abfrage verweist, und ein Minimum von 10 MB verarbeiteter Daten pro Abfrage.
- Wird eine laufende Abfrage abgebrochen, können trotzdem Kosten entstehen. Unter Umständen können diese auch die volle Höhe einer abgeschlossenen Abfrage erreichen.
- Beim Ausführen einer Abfrage erfolgt die Abrechnung entsprechend den Daten, die in den ausgewählten Spalten verarbeitet werden. Dies gilt auch, wenn Sie ein explizites
LIMIT
für die Ergebnisse festlegen. - Durch Partitionierung und Clustering Ihrer Tabellen können Sie die durch Abfragen verarbeitete Datenmenge reduzieren. Verwenden Sie Partitionierung und Clustering wann immer möglich.
- On-Demand-Preise (pro TiB) werden auf der Seite Google Cloud SKUs als „Analysis“ bezeichnet.
- Wenn Sie eine Abfrage für eine geclusterte Tabelle ausführen und die Abfrage einen Filter für die geclusterten Spalten enthält, verwendet BigQuery den Filterausdruck, um die von der Abfrage gescannten Blöcke zu bereinigen. Dadurch kann die Anzahl der gescannten Byte sinken.
Mit den Kostenkontrollmechanismen von BigQuery lassen sich Ihre Abfragekosten auf einen bestimmten Betrag begrenzen. Sie können Folgendes festlegen:
- benutzerdefinierte Kostenkontrollen auf Nutzer- und Projektebene
- Die maximal berechneten Byte pro Abfrage
Ausführliche Beispiele zur Berechnung der Anzahl der verarbeiteten Byte finden Sie unter Berechnung der Abfragegröße.
Preise für Rechenkapazität
BigQuery bietet ein kapazitätsbasiertes Preismodell für die Rechenleistung für Kunden, die zusätzliche Kapazität benötigen oder für Abfrage-Workloads einen vorhersehbaren Preis anstelle des On-Demand-Preises (pro TiB verarbeiteter Daten) bevorzugen. Das Kapazitätsmodell bietet eine nutzungsbasierte Abrechnung (mit Autoscaling) und optionale ein- und dreijährige Zusicherungen, die zu reduzierten Preisen führen. Sie zahlen für die Abfrageverarbeitungskapazität, die im Laufe der Zeit in Slots (virtuelle CPUs) gemessen wird.
Verwenden Sie BigQuery-Reservierungen, um die Kapazitätspreise zu aktivieren.
BigQuery-Slot-Kapazität:
- ist in drei Versionen verfügbar: Standard, Enterprise und Enterprise Plus.
- bezieht sich auf Abfragekosten, einschließlich BigQuery ML, DML- und DDL-Anweisungen.
- gilt nicht für Speicherkosten oder BI Engine-Kosten.
- gilt nicht für Streaming-Insert-Anweisungen und die Verwendung der BigQuery Storage API.
- können den BigQuery-Autoscaler nutzen.
- wird pro Sekunde mit einer Mindestdauer von einer Minute abgerechnet.
Für Arbeitslasten mit gleichmäßiger Nutzung bietet BigQuery optionale ausgabenbasierte Zusicherungen und Slot-Zusicherungen.
Weitere Informationen zu ausgabenbasierten Zusicherungen Kunden sind möglicherweise nicht für bestimmte Preisoptionen berechtigt, wenn sie an anderen Preisprogrammen teilnehmen.
Slot-Zusicherungen:
- sind für einen Zeitraum von einem oder drei Jahren verfügbar.
- sind in den Versionen Enterprise und Enterprise Plus verfügbar.
- sind regionale Kapazitäten. Zusicherungen in einer Region oder Multiregion können nicht in einer anderen Region oder Multiregion verwendet oder dorthin verschoben werden.
- kann für Ihre gesamte Organisation angewandt werden. Slot-Zusicherungen müssen nicht für jedes einzelne Projekt erworben werden.
- werden mit einem Minimum von 50 Slots und in Schritten von 50 Slots angeboten.
- werden automatisch verlängert, wenn sie nicht so eingestellt sind, dass sie am Ende des Zeitraums gekündigt werden.
Standardversion
In der folgenden Tabelle sind die Kosten für Slots in der Standard Edition aufgeführt.
Enterprise-Version
In der folgenden Tabelle sind die Kosten für Slots in der Enterprise-Version aufgeführt.
Enterprise Plus-Version
In der folgenden Tabelle sind die Kosten für Slots in der Enterprise Plus-Version aufgeführt.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Preise für BigQuery-Dienste
Zusätzliche Dienste, die im Rahmen von BigQuery verwendet werden, werden über die BigQuery-Dienste-SKU abgerechnet. Dazu gehört auch der Datenübertragungsdienst.
In der folgenden Tabelle sind die verschiedenen Dienste aufgeführt, die über die BigQuery-Dienste-SKU abgerechnet werden.
Dienst | Verwendung | Hinweise |
---|---|---|
Earth Engine in BigQuery | ST_RegionStats()-Aufrufe in BigQuery-Skripts | Diese Funktion sendet Aufgaben an Earth Engine. Earth Engine-Recheneinheiten werden in BigQuery-Dienst-Slotstunden umgerechnet. |
Python-UDF | Hier finden Sie ausführliche Informationen zur Chrome-Richtlinienverwaltung. | Python-UDFs werden derzeit ohne Aufpreis angeboten. Sobald die Abrechnung aktiviert ist, werden die Kosten unter der SKU „BigQuery Services“ ausgewiesen. Die Gebühren werden proportional zur Rechen- und Arbeitsspeichernutzung der UDF berechnet. |
Speicherpreise
Speicherpreise sind die Kosten für das Speichern von Daten, die Sie in BigQuery laden. Sie zahlen für aktiven Speicherplatz und langfristigen Speicherplatz.
Aktiver Speicher umfasst alle Tabellen- oder Tabellenpartitionen, die in den letzten 90 Tagen geändert wurden.
Langfristiger Speicher umfasst alle Tabellen- oder Tabellenpartitionen, die 90 Tage lang nicht geändert wurden. Der Preis für die Speicherung für diese Tabelle sinkt automatisch um ca. 50 %. Aktiver und langfristiger Speicher unterscheiden sich nicht in Leistung, Langlebigkeit und Verfügbarkeit.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Die Teilnahmevoraussetzungen finden Sie in der Dokumentation zum physischen Speicher.
Preisinformationen
Die Speicherpreise beziehen sich auf die Datenmenge, die in Ihren Tabellen gespeichert ist. Für temporäre Sitzungstabellen und temporäre Tabellen mit mehreren Anweisungen werden nur die Kosten für aktiven Speicherplatz berechnet. Für Zeitreisen und ausfallsichere Speicherung fallen keine Gebühren an. Für temporäre, im Cache gespeicherte Tabellen mit Abfrageergebnissen fallen keine Speicherkosten an.
Die Datengröße wird anhand der Datentypen in den einzelnen Spalten berechnet. Eine ausführliche Erläuterung dazu finden Sie unter Berechnung der Datengröße.
Die Preise für Speicherung werden pro MiB und Sekunde anteilig berechnet. Wenn Sie beispielsweise aktiven logischen Speicher in „us-central1“ verwenden:
- Bei Speicherung von 512 MiB für einen halben Monat zahlen Sie 0, 00575 $.
- Bei Speicherung von 100 GiB für einen halben Monat zahlen Sie 1, 15 $.
- Bei Speicherung von 1 TiB für einen ganzen Monat zahlen Sie 23, 552 $.
Die Speichernutzung wird in Gibibyte-Monaten (GiB-Monaten) berechnet. 1 GiB entspricht dabei 230 Byte (1.024 MiB). Demzufolge ist 1 TiB = 240 Byte, also 1.024 GiB. Der endgültige Nutzungswert ist das Produkt aus der Datengröße in Gibibyte und der Speichernutzungszeit in Monaten.
Wenn die Daten in einer Tabelle innerhalb von 90 aufeinanderfolgenden Tagen nicht geändert oder gelöscht werden, wird sie als langfristiger Speicher in Rechnung gestellt. Es kommt zu keiner Beeinträchtigung der Leistung, Langlebigkeit, Verfügbarkeit oder anderer Funktionen, wenn eine Tabelle in die Langzeitspeicherung übergeht.
Die Kosten für jede Partition einer partitionierten Tabelle werden bei der Langzeitspeicherung separat berechnet. Wenn eine Partition in den letzten 90 Tagen nicht geändert wurde, werden die Daten in dieser Partition als Langzeitspeicherung betrachtet und zum Rabattpreis in Rechnung gestellt.
Wird die Tabelle bearbeitet, gilt wieder der reguläre Speicherpreis, und der 90-Tage-Timer wird auf null zurückgesetzt. Durch jeden Vorgang, bei dem die Daten in einer Tabelle geändert werden, wird der Timer zurückgesetzt. Beispiele:
Vorgang | Details |
---|---|
Daten in eine Tabelle laden | Jeder Lade- oder Abfragejob, bei dem Daten an eine Zieltabelle angefügt werden oder eine Zieltabelle überschrieben wird. |
Daten in eine Tabelle kopieren | Jeder Kopierjob, bei dem Daten an eine Zieltabelle angefügt werden oder eine Zieltabelle überschrieben wird. |
Abfrageergebnisse in eine Tabelle schreiben | Jeder Abfragejob, bei dem Daten an eine Zieltabelle angefügt werden oder eine Zieltabelle überschrieben wird. |
Datenbearbeitungssprache (Data Manipulation Language, DML) verwenden | Einsatz einer DML-Anweisung, um Tabellendaten zu bearbeiten. |
Datendefinitionssprache (DDL) verwenden | CREATE OR REPLACE TABLE -Anweisung verwenden, um eine Tabelle zu ersetzen |
Daten in eine Tabelle streamen | Aufnahme von Daten mithilfe des API-Aufrufs tabledata.insertAll . |
Bei allen anderen Vorgängen wird der Timer nicht zurückgesetzt. Dazu gehören:
- Eine Tabelle abfragen
- Eine Ansicht erstellen, mit der eine Tabelle abgefragt wird
- Daten aus einer Tabelle exportieren
- Eine Tabelle (in eine andere Zieltabelle) kopieren.
- Eine Tabellenressource patchen oder aktualisieren
Für Tabellen, die den 90-Tage-Schwellenwert während eines Abrechnungszeitraums erreichen, wird der Preis entsprechend anteilig berechnet.
Die ermäßigten Kosten für die Langzeitspeicherung gelten nur für den BigQuery-Speicher und nicht für Daten in externen Datenquellen wie Bigtable, Cloud Storage oder Google Drive.
Berechnung der Datengröße
Beim Laden von Daten in BigQuery oder beim Abfragen von Daten werden die Kosten anhand der Datengröße berechnet. Dazu wird die Größe des Datentyps der jeweiligen Spalte herangezogen.
Die Größe der gespeicherten Daten und die Größe der Daten, die durch Ihre Abfragen verarbeitet werden,werden in Gibibyte (GiB) berechnet. 1 GiB entspricht dabei 230 Byte (1.024 MiB). Demzufolge ist 1 TiB = 240 Byte, also 1.024 GiB.
Weitere Informationen finden Sie unter Datentypgrößen.
Data Transfer Service – Preise
Die Gebühren für den BigQuery Data Transfer Service werden monatlich anteilig in Rechnung gestellt und so berechnet:
Datenquelle | Monatliche Gebühr (anteilig) | Hinweise |
---|---|---|
Campaign Manager | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
Cloud Storage | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
Amazon S3 | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1,2,3 |
Google Ads | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
Google Ad Manager | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
Google Merchant Center | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
Google Play | 25 $ pro eindeutigem Paketnamen in der Tabelle |
1 |
Search Ads 360 | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
YouTube-Kanal | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
YouTube-Rechteinhaber | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1 |
Data Warehouse | Monatliche Gebühr (anteilig) | Hinweise |
Teradata | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1, 2, 3, 4 |
Amazon Redshift | Kostenlos. Es gelten die Kontingente und Limits von BigQuery. |
1, 2, 3 |
Drittanbieter-Connectors | Es fallen Kosten an | Weitere Informationen 5 |
Hinweise zu den Übertragungskosten
Alle Übertragungen
1. Nach der Übertragung von Daten zu BigQuery gelten die Standardpreise für das Speichern und Abfragen von BigQuery.
Migrationen von anderen Plattformen
2. Das Extrahieren, das Hochladen in einen Cloud Storage-Bucket und das Laden von Daten in BigQuery ist kostenlos.
3. Durch die Nutzung von BigQuery Data Transfer Service können Kosten außerhalb von Google Cloud anfallen, z. B. für die Datenübertragung in AWS oder Azure.
Teradata-Migrationen
4. Die Daten werden nach dem Hochladen in BigQuery nicht automatisch aus Ihrem Cloud Storage-Bucket gelöscht. Daher sollten Sie sie selbst herauslöschen, um weitere Speicherkosten zu vermeiden. Weitere Informationen finden Sie unter Cloud Storage – Preise.
Drittanbieter-Connectors
5. Für Connectors von Drittanbietern fallen Kosten an. Das Preismodell ist je nach Partner und Connector unterschiedlich. Weitere Preisinformationen finden Sie bei den einzelnen Connectors, wenn Sie sich für Marketplace registrieren.
Google Play-Paketname
Jede Android-App hat eine eindeutige Anwendungs-ID, die wie der Name eines Java-Pakets aussieht, z. B. com.example.myapp. Der Bericht Installationen enthält eine Spalte mit dem Namen „Paketname“. Die Anzahl der eindeutigen Paketnamen wird zur Berechnung der Übertragungsnutzung verwendet.
Jede Übertragung, die Sie erstellen, generiert einen oder mehrere Durchläufe pro Tag. Paketnamen werden nur an dem Tag gezählt, an dem ein Übertragungsdurchlauf abgeschlossen wird. Wenn beispielsweise ein Übertragungsdurchlauf am 14. Juli beginnt, aber erst am 15. Juli abgeschlossen wird, werden die Paketnamen am 15. Juli gezählt.
Kommt ein eindeutiger Paketname an einem bestimmten Tag in mehr als einem Übertragungsdurchlauf vor, wird er nur einmal gezählt. Paketnamen werden für verschiedene Übertragungskonfigurationen separat gezählt. Kommt ein eindeutiger Paketname in den Durchläufen zweier unterschiedlicher Übertragungskonfigurationen vor, wird der Paketname zweimal gezählt.
Wenn ein Paketname einen ganzen Monat lang jeden Tag angezeigt wurde, werden Ihnen die vollen 25 $für diesen Monat in Rechnung gestellt. Andernfalls würde die Gebühr anteilig berechnet.
Beispiel 1: Wenn wir die Synchronisierung für eine Anwendung durchführen – com.smule.singandroid –, kostet uns das 25 $pro Monat zuzüglich der Speicherpreise für BigQuery?
Die Antwort lautet 25 $pro Monat (anteilig) zuzüglich der Speicher-/Abfragekosten von BigQuery.
Beispiel 2: Wenn wir alle historischen Daten (für 10 Jahre) synchronisieren, werden uns dann 120 Monate oder 1 Monat berechnet, weil wir sie auf einmal übertragen haben?
Die Antwort lautet immer noch 25 $pro Monat (anteilig) + Speicher-/Abfragekosten von BigQuery, da wir 25 $pro eindeutigem Paketnamen in der Tabelle „Installs_country“ berechnen, unabhängig davon, wie viele Jahre die historischen Daten für diesen eindeutigen Paketnamen zurückreichen.
BigQuery Omni – Preise
BigQuery Omni bietet die folgenden Preismodelle, die von Ihren Arbeitslasten und Anforderungen abhängen.
On-Demand-Preise für Compute
Ähnlich wie beim On-Demand-Analysemodell von BigQuery werden BigQuery Omni-Abfragen standardmäßig nach dem On-Demand-Preismodell (pro TiB) abgerechnet, bei dem Sie für die von Ihren Abfragen gescannten Daten bezahlen.
Mit der On-Demand-Abrechnung können Sie im Allgemeinen auf einen großen Pool gleichzeitiger Slots zugreifen, die von allen Abfragen in einem Projekt gemeinsam genutzt werden. In BigQuery Omni wird das Limit regelmäßig überschritten, um kleinere Abfragen zu beschleunigen. Darüber hinaus haben Sie möglicherweise weniger Slots, wenn an einem bestimmten Standort ein hohes Konfliktpotenzial für On-Demand-Kapazität besteht.
Die On-Demand-Preise für BigQuery Omni-Abfragen (pro TiB) sehen so aus:
Region | Preis pro TiB |
---|---|
AWS North Virginia (aws-us-east-1) | 7,82 $ |
Azure North Virginia (azure-eastus2) | 9,13 $ |
AWS Seoul (aws-ap-northeast-2) | 10,00 $ |
AWS Oregon (aws-us-west-2) | 7,82 $ |
AWS Ireland (aws-eu-west-1) | 8,60 $ |
AWS Sydney (aws-ap-southeast-2) | 10,55 $ |
AWS Frankfurt (aws-eu-central-1) | 10,16 $ |
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Preisangaben
Die Details und Einschränkungen sind ähnlich wie bei den Preisen für BigQuery-Analysen. Beachten Sie die folgenden Informationen zu On-Demand-Abfragegebühren (pro TiB):
- BigQuery verwendet eine spaltenbasierte Datenstruktur. Es werden Ihnen die Kosten entsprechend der verarbeiteten Gesamtdaten in den ausgewählten Spalten in Rechnung gestellt, wobei die Gesamtdaten pro Spalte anhand der Datentypen in der Spalte berechnet werden. Unter Berechnung der Datengröße finden Sie weitere Informationen dazu.
- Abfragen, die einen Fehler oder Ergebnisse aus dem Cache zurückgeben, werden Ihnen nicht in Rechnung gestellt. Bei Jobs in prozeduralen Sprachen wird diese Berücksichtigung auf der Ebene der einzelnen Anweisungen vorgenommen.
- Die Kosten werden auf das nächste MB aufgerundet. Dabei gilt ein Minimum von 10 MB verarbeiteter Daten pro Tabelle, auf die die Abfrage verweist, und ein Minimum von 10 MB verarbeiteter Daten pro Abfrage.
- Wird eine laufende Abfrage abgebrochen, können trotzdem Kosten entstehen. Unter Umständen können diese auch die volle Höhe einer abgeschlossenen Abfrage erreichen.
- Beim Ausführen einer Abfrage erfolgt die Abrechnung entsprechend den Daten, die in den ausgewählten Spalten verarbeitet werden. Dies gilt auch, wenn Sie ein explizites LIMIT für die Ergebnisse festlegen.
- Durch Partitionierung und Clustering Ihrer Tabellen können Sie die durch Abfragen verarbeitete Datenmenge reduzieren. Verwenden Sie Partitionierung und Clustering wann immer möglich.
- On-Demand-Preise (pro TiB) werden auf der Seite Google Cloud SKUs als „Analysis“ bezeichnet.
- Wenn Sie eine Abfrage für eine geclusterte Tabelle ausführen und die Abfrage einen Filter für die geclusterten Spalten enthält, verwendet BigQuery den Filterausdruck, um die von der Abfrage gescannten Blöcke zu bereinigen. Dadurch kann die Anzahl der gescannten Byte sinken.
Mit den Kostenkontrollmechanismen von BigQuery lassen sich Ihre Abfragekosten auf einen bestimmten Betrag begrenzen. Sie können Folgendes festlegen:
- Benutzerdefinierte Kostenkontrollen auf Nutzer- und Projektebene
- Die maximal berechneten Byte pro Abfrage
BigQuery Omni mit Versionen
BigQuery Omni-Regionen unterstützen BigQuery-Versionen. Derzeit wird in Omni-Regionen nur die Enterprise Edition unterstützt.
In der folgenden Tabelle sind die Kosten für Slots in Omni-Regionen aufgeführt:
AWS North Virginia (aws-us-east-1)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Zusicherung) | 7,50 $ (sekundengenaue Abrechnung, mindestens 1 Minute) | 100 |
Zusicherung für 1 Jahr | 6 $ (für 1 Jahr abgerechnet) | 100 |
Zusicherung für 3 Jahre | 4,50 $ (für 3 Jahre abgerechnet) | 100 |
Azure North Virginia (azure-eastus2)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Zusicherung) | 8,80 $ (sekundengenaue Abrechnung, mindestens 1 Minute) | 100 |
Zusicherung für 1 Jahr | 7 $ (für 1 Jahr abgerechnet) | 100 |
Zusicherung für 3 Jahre | 5,30 $ (für 3 Jahre abgerechnet) | 100 |
AWS Seoul (aws-ap-northeast-2)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Zusicherung) | 9,60 $ (sekundengenaue Abrechnung, mindestens 1 Minute) | 100 |
Zusicherung für 1 Jahr | 7,70 $ (für 1 Jahr abgerechnet) | 100 |
Zusicherung für 3 Jahre | 5,80 $ (für 3 Jahre) | 100 |
AWS Oregon (aws-us-west-2)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Zusicherung) | 7,50 $ (sekundengenaue Abrechnung, mindestens 1 Minute) | 100 |
Zusicherung für 1 Jahr | 6,00 $ (für 1 Jahr abgerechnet) | 100 |
Zusicherung für 3 Jahre | 4,50 $ (für 3 Jahre abgerechnet) | 100 |
AWS Ireland (aws-eu-west-1)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Zusicherung) | 8,25 $ (sekundengenaue Abrechnung, mindestens 1 Minute) | 100 |
Zusicherung für 1 Jahr | 6,60 $ (für 1 Jahr abgerechnet) | 100 |
Zusicherung für 3 Jahre | 4,95 $ (für 3 Jahre) | 100 |
AWS Sydney (aws-ap-southeast-2)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Zusicherung) | 10,13 $ (sekundengenaue Abrechnung, mindestens 1 Minute) | 100 |
Zusicherung für 1 Jahr | 8,10 $ (für 1 Jahr abgerechnet) | 100 |
Zusicherung für 3 Jahre | 6,08 $ (für 3 Jahre abgerechnet) | 100 |
AWS Frankfurt (aws-eu-central-1)
Zusicherungsmodell | Kosten pro Stunde | Anzahl der Slots |
---|---|---|
PAYG (keine Zusicherung) | 9,75 $ (sekundengenaue Abrechnung, mindestens 1 Minute) | 100 |
Zusicherung für 1 Jahr | 7,80 $ (für 1 Jahr) | 100 |
Zusicherung für 3 Jahre | 5,85 $ (für 3 Jahre abgerechnet) | 100 |
Omni Cross Cloud Data Transfer
Bei der Nutzung der cloudübergreifenden Funktionen von Omni (cloudübergreifende Übertragung, „Tabelle als Auswahl erstellen“, „In Auswahl einfügen“, cloudübergreifende Joins und cloudübergreifende materialisierte Ansichten), bei denen Daten von AWS oder Azure zu Google Cloud übertragen werden, fallen zusätzliche Gebühren für die Datenübertragung an.
Für cloudübergreifende materialisierte Ansichten, „CREATE TABLE AS SELECT“, „INSERT INTO SELECT“ und cloudübergreifende Joins fallen während der Vorschauphase keine Gebühren an. Ab dem 29. Februar 2024 sind diese Dienste allgemein verfügbar und die Datenübertragung wird kostenpflichtig. Die Datenübertragung wird nur dann in Rechnung gestellt, wenn Sie einen der oben aufgeführten Dienste aus einer AWS- oder Azure-Region in eine Google Cloud BigQuery-Region verwenden. Ihnen wird ein Preis pro GiB basierend auf der Datenmenge berechnet, die von AWS oder Azure zu Google Cloudübertragen wird.
SKU | Abrechnungsmodell | Meter | Preis |
---|---|---|---|
Cloudübergreifende Datenübertragung von AWS North Virginia (aws-us-east-1) zu Google Cloud North America | nutzungsbasiert | Übertragene GiB | 0,09 $ |
Cloudübergreifende Datenübertragung von Azure North Virginia (azure-eastus2) zu Google Cloud North America | nutzungsbasiert | Übertragene GiB | 0,0875 $ |
Cloudübergreifende Datenübertragung von AWS Seoul (aws-ap-northeast-2) zu Google Cloud Asia | nutzungsbasiert | Übertragene GiB | 0,126 $ |
Cloud-übergreifende Datenübertragung von AWS Oregon (aws-us-west-2) zu Google Cloud Nordamerika | nutzungsbasiert | Übertragene GiB | 0,09 $ |
Cloudübergreifende Datenübertragung von AWS Irland (aws-eu-west-1) zu Google Cloud Europe | nutzungsbasiert | Übertragene GiB | 0,09 $ |
Cloud-übergreifende Datenübertragung von AWS Sydney (aws-ap-southeast-2) zu Google Cloud Oceania | nutzungsbasiert | Übertragene GiB | 0,114 $ |
Cloudübergreifende Datenübertragung von AWS Frankfurt (aws-eu-central-1) zu Google Cloud Europe | nutzungsbasiert | Übertragene GiB | 0,09 $ |
Omni Managed Storage
Bei der Verwendung der Funktion für cloudübergreifende materialisierte Ansichten von Omni werden Ihnen auch die Kosten für die Erstellung lokaler materialisierter Ansichten in Rechnung gestellt, die sich im verwalteten BigQuery-Speicher in AWS befinden. Ihnen wird der für die lokale materialisierte Ansicht verwendete physische Speicherplatz pro GiB in Rechnung gestellt.
Vorgang | Preise |
---|---|
Aktiver physischer Speicher (aws-us-east-1) | 0,05 $ pro GiB und Monat |
Langfristiger physischer Speicher (aws-us-east-1) | 0,025 $ pro GiB und Monat |
Aktiver physischer Speicher (azure-eastus2) | 0,05 $ pro GiB und Monat |
Langfristiger physischer Speicher (azure-eastus2) | 0,025 $ pro GiB und Monat |
Aktiver physischer Speicher (aws-ap-northeast-2) | 0,052 $ pro GiB und Monat |
Langfristiger physischer Speicher (aws-ap-northeast-2) | 0,026 $ pro GiB und Monat |
Aktiver physischer Speicher (aws-us-west-2) | 0,04 $ pro GiB und Monat |
Langfristiger physischer Speicher (aws-us-west-2) | 0,02 $ pro GiB und Monat |
Aktiver physischer Speicher (aws-eu-west-1) | 0,044 $ pro GiB und Monat |
Langfristiger physischer Speicher (aws-eu-west-1) | 0,022 $ pro GiB und Monat |
Aktiver physischer Speicher (aws-ap-southeast-2) | 0,052 $ pro GiB und Monat |
Langfristiger physischer Speicher (aws-ap-southeast-2) | 0,026 $ pro GiB und Monat |
Aktiver physischer Speicher (aws-eu-central-1) | 0,052 $ pro GiB und Monat |
Langfristiger physischer Speicher (aws-eu-central-1) | 0,026 $ pro GiB und Monat |
Preise für die Datenaufnahme
BigQuery bietet zwei Modi für die Datenaufnahme:
Laden im Batch: Quelldateien in einem einzigen Batchvorgang in eine oder mehrere BigQuery-Tabellen laden.
Streaming. Sie können Daten mit der BigQuery Storage Write API oder der Legacy Streaming API einzeln oder in kleinen Batches streamen.
Weitere Informationen dazu, welcher Modus ausgewählt wird, finden Sie unter Einführung in das Laden von Daten.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Preisinformationen
Standardmäßig werden Ihnen keine Gebühren für das Laden von Daten aus dem Cloud-Speicher oder für lokale Dateien in BigQuery in Rechnung gestellt. Regionsübergreifende Ladejobs werden für die Netzwerknutzung unter SKUs für Netzwerk-Datenübertragung abgerechnet.
Für Ladejobs wird standardmäßig ein gemeinsam genutzter Pool von Slots verwendet. BigQuery gibt keine Garantien für die verfügbaren Kapazitäten dieses gemeinsamen Pools oder den angezeigten Durchsatz. Alternativ können Sie dedizierte Slots erwerben, um Ladejobs auszuführen. Für dedizierte Slots wird Ihnen ein kapazitätsbasierter Preis in Rechnung gestellt. Wenn Ladejobs einer Reservierung zugewiesen sind, können sie nicht mehr auf den kostenlosen Pool zugreifen. Weitere Informationen finden Sie unter Zuweisungen.
Sobald die Daten in BigQuery geladen sind, gelten die entsprechenden Speicherpreise von BigQuery. Wenn Sie Daten aus Cloud Storage laden, wird Ihnen das Speichern der Daten in Cloud Storage in Rechnung gestellt. Weitere Informationen finden Sie auf der Seite mit den Cloud Storage-Preisen unter Datenspeicherung.
Preise für die Datenextraktion
BigQuery bietet die folgenden Modi für die Datenextraktion:
Batch-Export. Verwenden Sie einen Extraktionsjob, um Tabellendaten in Cloud Storage zu exportieren. Für den Export von Daten aus einer BigQuery-Tabelle mit einem Extraktionsjob fallen keine Verarbeitungsgebühren an. Regionenübergreifende Extraktionsjobs werden unter General Data Transfer Networking Traffic for Google Cloud Cross Region SKUs abgerechnet.
Abfrageergebnisse exportieren. Mit der Anweisung
EXPORT DATA
können Sie Abfrageergebnisse nach Cloud Storage, Bigtable oder Spanner exportieren. Ihnen werden die Rechenkosten für die Verarbeitung der Abfrageanweisung in Rechnung gestellt.Streaming-Lesevorgänge. Verwenden Sie die Storage Read API, um Tabellendaten mit hohem Durchsatz zu lesen. Ihnen wird die gelesene Datenmenge in Rechnung gestellt.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Preise für die Batch-Datenübertragung
Für die Datenübertragung fallen Kosten an, wenn Sie Daten im Batchverfahren aus BigQuery in einen Cloud Storage-Bucket oder eine Spanner-Tabelle in einer anderen Region exportieren. Die Kosten sind wie folgt:
Fall | Beispiel | Preis |
---|---|---|
Export innerhalb desselben Standorts | Von us-east1 nach us-east1 | Kostenlos |
Export aus BigQuery US-Multi-Region | Von „USA (multiregional)“ zu „us-central1 (Iowa)“ | Kostenlos |
Export aus BigQuery US-Multi-Region | Von US-Multi-Region zu einer beliebigen Region (außer us-central1 (Iowa)) | Siehe folgende Tabelle |
Export aus BigQuery EU-Multiregion | Von EU (multiregional) zu europe-west4 (Niederlande) | Kostenlos |
Export aus BigQuery EU-Multiregion | Von „EU (multiregional)“ zu einer beliebigen Region (außer „europe-west4“ (Niederlande)) | Siehe folgende Tabelle |
Export an alle Standorte | Von us-east1 nach us-central1 | Siehe folgende Tabelle |
Quellstandort | Zielort | |||||||
---|---|---|---|---|---|---|---|---|
Nördliches Amerika | Europa | Asien | Indonesien | Ozeanien | Naher Osten | Lateinamerika | Afrika | |
Nördliches Amerika | 0,02 $ pro GiB | 0,05 $ pro GiB | 0,08 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Europa | 0,05 $ pro GiB | 0,02 $ pro GiB | 0,08 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Asien | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Indonesien | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB |
Ozeanien | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB |
Naher Osten | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,08 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Lateinamerika | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB |
Afrika | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Datenübertragung mit der Storage Read API innerhalb von Google Cloud
Fall | Beispiele | Preis |
---|---|---|
Auf im Cache gespeicherte Abfrageergebnisse aus temporären Tabellen zugreifen |
|
Kostenlos |
Datenlesevorgänge am selben Standort |
|
Kostenlos |
Daten werden aus einer BigQuery-Multi-Region an einen anderen BigQuery-Standort gelesen und beide Standorte befinden sich auf demselben Kontinent. |
|
Kostenlos |
Daten werden zwischen zwei Standorten auf demselben Kontinent gelesen (sofern keines der oben genannten kostenlosen Szenarien zutrifft). |
|
0,01 $/GiB* |
Daten werden zwischen verschiedenen Kontinenten innerhalb der Google Cloud verschoben, von denen keiner Australien ist. |
|
0,08 $ pro GiB |
Daten werden zwischen verschiedenen Kontinenten innerhalb der Google Cloud verschoben, von denen einer Australien ist. |
|
0,15 $ pro GiB |
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Allgemeine Netzwerkspeichernutzung der Storage Read API
Monatliche Nutzung |
Datenübertragung an Ziele auf der ganzen Welt (außer Asien und Australien) (pro GiB) |
Datenübertragung an Ziele in Asien (außer China, aber inkl. Hongkong) (pro GiB) |
Datenübertragung an Ziele in China (außer Hongkong) (pro GiB) |
Datenübertragung an Ziele in Australien (pro GiB) |
Eingehende Datenübertragung |
---|---|---|---|---|---|
0–1 TiB | 0,12 $ | 0,12 $ | 0,19 $ | 0,19 $ | Kostenlos |
1–10 TiB | 0,11 $ | 0,11 $ | 0,18 $ | 0,18 $ | Kostenlos |
Über 10 TiB | 0,08 $ | 0,08 $ | 0,15 $ | 0,15 $ | Kostenlos |
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Storage Read API – Preisangaben
Für die Storage Read API gilt ein On-Demand-Preismodell. Bei On-Demand-Preisen berechnet BigQuery die Anzahl der verarbeiteten Byte (auch als gelesene Byte bezeichnet). Die On-Demand-Preise richten sich ausschließlich nach der Nutzung. Pro Monat ist eine kostenlose Stufe von 300 TiB für jedes Rechnungskonto verfügbar. Byte, die bei Lesevorgängen aus temporären Tabellen gescannt werden, sind kostenlos und werden nicht auf die kostenlose Stufe mit 300 TiB angerechnet. Die kostenlosen 300 TiB Byte beziehen sich auf die Byte-Lesekomponente und gelten nicht für den zugehörigen ausgehenden Traffic.
Beachten Sie außerdem folgende Hinweise zu den Storage Read API-Gebühren:
- Ihnen wird die gesamte gelesene Datenmenge in Rechnung gestellt. Sowohl die insgesamt pro Spalte gelesenen Daten als auch die Datengröße werden anhand des Datentyps in der Spalte berechnet. Eine ausführliche Erläuterung dazu finden Sie unter Berechnung der Datengröße.
- Ihnen werden alle während einer Lesesitzung gelesenen Daten in Rechnung gestellt, auch wenn ein
ReadRows
-Aufruf fehlschlägt. - Wenn Sie einen
ReadRows
-Aufruf abbrechen, bevor das Ende des Streams erreicht ist, werden Ihnen alle Daten in Rechnung gestellt, die bis dahin gelesen wurden. Das betrifft auch Daten, die vor dem Abbruch desReadRows
-Aufrufs gelesen, aber nicht an Sie zurückgegeben wurden. - Sie sollten wann immer möglich partitionierte und geclusterte Tabellen verwenden.
Sie können die gelesene Datenmenge reduzieren, indem Sie Partitionen mit einer
WHERE
-Klausel bereinigen. Weitere Informationen finden Sie unter Partitionierte Tabellen abfragen. - Bei Verwendung von Interconnect gelten die Preise für Cloud Interconnect anstelle der Preise für die allgemeine Netzwerkspeichernutzung der BigQuery Storage Read API.
Preise für die Datenreplikation
Neben Kopiervorgängen innerhalb derselben Region bietet BigQuery zwei Modi für die Replikation (Kopieren) von Daten zwischen Regionen. Sie können einen einmaligen Kopiervorgang durchführen oder eine inkrementelle, fortlaufende Replikation verwenden. Sie haben folgende Möglichkeiten, Daten regionenübergreifend zu kopieren:
Regionenübergreifendes Kopieren. Einmaliges oder geplantes Kopieren von Tabellendaten zwischen Regionen oder Multiregionen, siehe Datasets kopieren oder Tabellen kopieren. Das regionenübergreifende Kopieren wird unter General Data Transfer Networking Traffic for Google Cloud Cross Region SKUs abgerechnet.
Regionenübergreifende Replikation. Kontinuierliche, inkrementelle Replikation eines Datasets zwischen zwei oder mehr verschiedenen Regionen oder Multiregionen, siehe Regionenübergreifende Dataset-Replikation.
Regionenübergreifende Turboreplikation. Leistungsstarke, fortlaufende, inkrementelle Replikation eines Datasets zwischen zwei oder mehr verschiedenen Regionen oder Multi-Regionen. Nur mit verwalteter Notfallwiederherstellung verfügbar.
Sowohl die regionsübergreifende Replikation als auch die regionsübergreifende Turboreplikation werden unter den BigQuery Network Egress Replication SKUs abgerechnet.
Speicher für replizierte Daten
Für replizierte Daten, die in der Zielregion oder Multiregion gespeichert sind, fallen BigQuery-Speicherpreise an.
Preise für die Datenübertragung replizierter Daten
Die Datenübertragung wird Ihnen für die Menge der replizierten Daten in Rechnung gestellt. Die Anwendungsfälle und die Aufschlüsselung der Gebühren für die Datenübertragung sind wie folgt angegeben:
Fall | Beispiel | Preis |
---|---|---|
Kopiervorgang am selben Standort | Von us-east1 nach us-east1 | **Kostenlos** |
Replikation (einmalig oder fortlaufend inkrementell) aus BigQuery US Multi-Region | Von „USA (multiregional)“ zu „us-central1 (Iowa)“ | **Kostenlos** |
Replikation aus BigQuery US-Multiregion | Von US-Multi-Region zu einer beliebigen Region (außer us-central1 (Iowa)) | Siehe folgende Tabelle |
Replikation aus der BigQuery-Multiregion „EU“ | Von EU (multiregional) zu europe-west4 (Niederlande) | **Kostenlos** |
Replikation aus der BigQuery-Multiregion „EU“ | Von „EU (multiregional)“ zu einer beliebigen Region (außer „europe-west4“ (Niederlande)) | Siehe folgende Tabelle |
Replikation an verschiedenen Standorten | Von us-east1 nach us-central1 | Siehe folgende Tabelle |
Quellstandort | Zielort | |||||||
---|---|---|---|---|---|---|---|---|
Nördliches Amerika | Europa | Asien | Indonesien | Ozeanien | Naher Osten | Lateinamerika | Afrika | |
Nördliches Amerika | 0,02 $ pro GiB | 0,05 $ pro GiB | 0,08 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Europa | 0,05 $ pro GiB | 0,02 $ pro GiB | 0,08 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Asien | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Indonesien | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB |
Ozeanien | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,10 $ pro GiB | 0,08 $ pro GiB | 0,08 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB |
Naher Osten | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,08 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Lateinamerika | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB |
Afrika | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB | 0,14 $ pro GiB | 0,11 $ pro GiB |
Preise für die Datenübertragung bei der Datenreplikation für die Turboreplikation
Quellstandort | Zielort | |||||||
---|---|---|---|---|---|---|---|---|
Nördliches Amerika | Europa | Asien | Indonesien | Ozeanien | Naher Osten | Lateinamerika | Afrika | |
Nördliches Amerika | 0,04 $ pro GiB | 0,10 $ pro GiB | 0,16 $/GiB | 0,20 $/GiB | 0,20 $/GiB | 0,22 $/GiB | 0,28 $/GiB | 0,22 $/GiB |
Europa | 0,10 $ pro GiB | 0,04 $ pro GiB | 0,16 $/GiB | 0,20 $/GiB | 0,20 $/GiB | 0,22 $/GiB | 0,28 $/GiB | 0,22 $/GiB |
Asien | 0,16 $/GiB | 0,16 $/GiB | 0,16 $/GiB | 0,20 $/GiB | 0,20 $/GiB | 0,22 $/GiB | 0,28 $/GiB | 0,22 $/GiB |
Indonesien | 0,20 $/GiB | 0,20 $/GiB | 0,20 $/GiB | 0,16 $/GiB | 0,16 $/GiB | 0,22 $/GiB | 0,28 $/GiB | 0,28 $/GiB |
Ozeanien | 0,20 $/GiB | 0,20 $/GiB | 0,20 $/GiB | 0,16 $/GiB | 0,16 $/GiB | 0,22 $/GiB | 0,28 $/GiB | 0,28 $/GiB |
Naher Osten | 0,22 $/GiB | 0,22 $/GiB | 0,22 $/GiB | 0,22 $/GiB | 0,22 $/GiB | 0,16 $/GiB | 0,28 $/GiB | 0,22 $/GiB |
Lateinamerika | 0,28 $/GiB | 0,28 $/GiB | 0,28 $/GiB | 0,28 $/GiB | 0,28 $/GiB | 0,28 $/GiB | 0,28 $/GiB | 0,28 $/GiB |
Afrika | 0,22 $/GiB | 0,22 $/GiB | 0,22 $/GiB | 0,28 $/GiB | 0,28 $/GiB | 0,22 $/GiB | 0,28 $/GiB | 0,22 $/GiB |
Preise für die Notebook-Laufzeit
BigQuery Studio-Notebooks verwenden eine Standard-Notebooklaufzeit, die eine Colab Enterprise-Laufzeit nutzt, um die Ausführung von Notebook-Code zu ermöglichen. Die Standardlaufzeit von Colab Enterprise verbraucht Rechen- und Festplattenressourcen (SSD und PD).
Die Abrechnung dieser Ressourcen erfolgt als nutzungsabhängige Slots, wie unten beschrieben. Diese Slots werden unter der BigQuery Standard Edition SKU abgerechnet.
Notebooks, die eine nicht standardmäßige Laufzeit verwenden, werden unter Vertex-SKUs abgerechnet.
Die Standard-Notebook-Laufzeit ist eine von Google bereitgestellte virtuelle Maschine (VM), die den Code in Ihrem Notebook (IPYNB-Datei) ausführen kann. So können BigQuery-Kunden Python-Scripts ausführen und werden nach einer Leerlaufzeit nicht mehr belastet.
*Die „Pay as you go“-Slots werden in der Edition gemessen, die auf Projektebene verwendet wird.
Das Standard-Notebook weist im Hintergrund Festplatten und SSDs zu, damit Nutzer neue Data-Science-Pakete installieren und ihre Arbeit über den ausgeführten Python-Code hinaus fortsetzen können. Sobald die PD und SSD veröffentlicht sind, werden Ihnen keine Gebühren mehr berechnet.
Preisinformationen für BigQuery Studio-Notebooks:
- Die Standardkonfiguration der Laufzeit kann geändert werden, um die Nutzerfreundlichkeit zu verbessern. Weitere Informationen
- Colab Enterprise-Laufzeiten werden standardmäßig nach 180 Minuten Inaktivität heruntergefahren. Auf dieser Seite wird das Feature zum Herunterfahren bei Inaktivität beschrieben und erläutert, wie Sie die Standardeinstellungen für das Herunterfahren bei Inaktivität ändern oder das Feature deaktivieren können, wenn Sie eine Laufzeitvorlage erstellen.
BigQuery ML – Preise
BigQuery ML-Modelle können in zwei Kategorien unterteilt werden: eingebundene Modelle und externe Modelle. Eingebundene BigQuery ML-Modelle werden in BigQuery trainiert. Hierzu zählen Modelle mit linearer oder logistischer Regression sowie k-Means-, Matrixfaktorisierungs-, PCA- und ARIMA-Modelle. Das vortrainierte TimesFM-Modell gilt ebenfalls als integriertes Modell. Externe BigQuery ML-Modelle werden mithilfe anderer Google Cloud Dienste, DNN-, Boosted Tree- und Random Forest-Modelle (die auf Vertex AI trainiert werden) und AutoML-Modelle (die auf dem Vertex AI Tables-Backend trainiert werden) trainiert. Die Preise für das BigQuery ML-Modelltraining richten sich nach dem Modelltyp und Ihrem Nutzungsmuster sowie Ihrem Preismodell, also Editionen oder On-Demand. Die Vorhersage- und Bewertungsfunktionen werden in BigQuery ML für alle Modelltypen entsprechend den unten angegebenen Preisen ausgeführt.
Preise für BigQuery ML-Editionen
BigQuery ML ist in den Enterprise- und Enterprise Plus-Versionen für Kunden verfügbar, die ein Preismodell basierend auf der Rechenkapazität (Anzahl der Slots) dem On-Demand-Modell (Anzahl der verarbeiteten Bytes) vorziehen. Kunden können Enterprise- oder Enterprise Plus-Reservierungen verwenden, um alle Funktionen von BigQuery ML zu nutzen. Die Nutzung von BigQuery ML wird in der Nutzung von BigQuery Editions enthalten sein.
Reservierungen zum Erstellen eingebundener Modelle
BigQuery hat drei Jobtypen für Reservierungszuweisungen: QUERY
, PIPELINE
und ML_EXTERNAL
. Zuweisungen vom Typ QUERY
, die für Analyseabfragen verwendet werden, werden auch zum Ausführen von CREATE MODEL
-Abfragen für integrierte BigQuery ML-Modelle verwendet. Integrierte Modellschulungen und analytische Abfragen teilen sich den gleichen Ressourcenpool in den zugewiesenen Reservierungen und verhalten sich in Bezug auf die Berechtigung und die Verwendung von freien Slots aus anderen Reservierungen gleich.
Reservierungen zum Erstellen externer Modelle
Da externe Modelle außerhalb von BigQuery trainiert werden, sind diese Arbeitslasten nicht auf Abruf verfügbar. Damit andere Workloads nicht betroffen sind, können für diese externen Jobs nur Reservierungen mit ML_EXTERNAL
-Jobtypzuweisung verwendet werden. Unter Arbeitslastverwaltung mit Reservierungen wird beschrieben, wie Reservierungen für externe Modelltrainingsjobs erstellt werden. Die Slot-Nutzung pro Job wird berechnet, um die Preisparität zwischen BigQuery-Slots und externen Google Cloud Dienstkosten aufrechtzuerhalten.
On-Demand-Preise für BigQuery ML
Die Abrechnung der BigQuery ML-Nutzung nach On-Demand-Preisen hängt von der Art des jeweiligen Vorgangs ab, also Modelltyp, -erstellung, -bewertung, -prüfung oder ‑vorhersage. Für die Modelle, die sie unterstützen, wird die Hyperparameter-Abstimmung zum gleichen Preis wie die Modellerstellung abgerechnet. Die Kosten für das Modelltraining im Zusammenhang mit der Hyperparameter-Abstimmung sind die Summe der Kosten aller durchgeführten Tests.
Die On-Demand-Preise für BigQuery ML sehen so aus:
1 Die CREATE MODEL
-Anweisung stoppt bei iterativen Modellen nach 50 Iterationen. Dies gilt sowohl für On-Demand- als auch für Editions-Preise.
2 Wenn bei Zeitachsenmodellen zur automatischen Hyperparameteroptimierung auto.arima aktiviert ist, werden in der Trainingsphase mehrere Kandidatenmodelle angepasst und bewertet. In diesem Fall wird die Anzahl der Byte, die von der eingegebenen SELECT
-Anweisung verarbeitet wird, mit der Anzahl der Kandidatenmodelle multipliziert, die durch die Trainingsoption AUTO_ARIMA_MAX_ORDER für ARIMA_PLUS
oder die Trainingsoption AUTO_ARIMA_MAX_ORDER für ARIMA_PLUS_XREG
gesteuert werden können. Dies gilt sowohl für On-Demand- als auch für Editions-Preise.
Die folgenden Hinweise gelten für die Erstellung von Zeitachsenmodellen:
Wenn bei Prognosen für einzelne Zeitachsen auto.arima aktiviert ist und
AUTO_ARIMA_MAX_ORDER
(1, 2, 3, 4, 5) ist, ist die Anzahl der Kandidatenmodelle (6, 12, 20, 30, 42), wenn das nicht saisonale Tupel d gleich 1 ist. Andernfalls beträgt die Anzahl der Kandidatenmodelle (3, 6, 10, 15, 21).Bei Prognosen für mehrere Zeitachsen mit
TIME_SERIES_ID_COL
werden (6, 12, 20, 30, 42) Kandidatenmodelle berechnet, wennAUTO_ARIMA_MAX_ORDER
gleich (1, 2, 3, 4, 5) ist.Hinweis: Diese Modellauswahl gilt nur für die Modellerstellung. Für die Modellbewertung, ‑prüfung und ‑vorhersage wird nur das ausgewählte Modell verwendet. Dabei gelten die regulären Abfragegebühren.
3 Weitere Informationen finden Sie unter „BigQuery ML Remote Model Inference“.
BigQuery ML-Remotemodelltraining, ‑Inferenz und ‑Abstimmung
Mit BigQuery ML können Kunden ein Remote-Modell erstellen, das auf ein Vertex AI Foundation Model, einen Vertex AI-Onlinevorhersage-Endpunkt oder eine Cloud AI API, zum Beispiel die Cloud AI Vision API, ausgerichtet ist.
Die Preise für die Inferenz mit BigQuery ML-Remotemodellen setzen sich aus folgenden Komponenten zusammen:
- Die von BigQuery verarbeiteten Byte werden nach den Standardpreisen abgerechnet, z. B. On-Demand-Preise oder Preise für Editionen.
- Außerdem fallen für den Remote-Endpunkt folgende Kosten an:
Remote-Modelltypen Inferenzfunktionen Preise In Vertex AI gehostete Google-Modelle ML.GENERATE_TEXT
ML.GENERATE_EMBEDDING
Preise für die Batchverarbeitung mit generativer KI in Vertex AI. Anthropic Claude-Modelle in Vertex AI aktiviert ML.GENERATE_TEXT
Preise für generative KI in Vertex AI In Vertex AI bereitgestellte offene Modelle ML.GENERATE_TEXT
Vertex AI – Preise Vertex AI-Endpunkte ML.PREDICT
Vertex AI – Preise Cloud Natural Language API ML.UNDERSTAND_TEXT
Preise für die Cloud Natural Language API Cloud Translation API ML.TRANSLATE
Preise für die Cloud Translation API Cloud Vision API ML.ANNOTATE_IMAGE
Preise für die Cloud Vision API Document AI API ML.PROCESS_DOCUMENT
Preise für die Document AI API Speech-to-Text API ML.TRANSCRIBE
Preise für die Speech-to-Text API
Die Preise für Modelle mit Remote-Endpunkt werden direkt von den oben genannten Diensten berechnet. Sie können das Abrechnungslabels billing_service = 'bigquery_ml' und das Abrechnungslabels bigquery_job_id verwenden, um die genauen Kosten zu filtern.
Kosten für überwachte Abstimmung von LLMs
Bei der Verwendung von überwachtem Tuning mit Remote-Modellen über Vertex AI LLMs werden die Kosten auf der Grundlage der folgenden Faktoren berechnet:
- Die verarbeiteten Byte aus der in der
AS SELECT
-Klausel angegebenen Tabelle mit Trainingsdaten. Diese Gebühren werden von BigQuery Ihrem Projekt in Rechnung gestellt. - Die GPU- oder TPU-Nutzung zum Optimieren des LLM. Diese Gebühren werden von Vertex AI Ihrem Projekt in Rechnung gestellt. Weitere Informationen finden Sie unter Vertex AI-Preise.
BigQuery ML – Probelauf
Da eine erste Einschätzung wegen der zugrunde liegenden Algorithmen einiger Modelltypen und aufgrund von Abweichungen bei der Abrechnung sehr kompliziert ist, werden die verarbeiteten Datenmengen bei diesen Modelltypen erst nach Abschluss des Trainings berechnet.
BigQuery ML – Preisbeispiel
Die Kosten für BigQuery ML werden in Ihrer Abrechnung nicht gesondert aufgeführt. Wenn Sie BigQuery Editions haben, sind die BigQuery ML-Gebühren für aktuelle Modelle darin enthalten.
Wenn Sie On-Demand-Preise verwenden, sind die Kosten für BigQuery ML in den Kosten für BigQuery-Analysen (Abfragen) enthalten.
Für BigQuery ML-Jobs, die Prüfungs-, Bewertungs- und Vorhersagevorgänge ausführen, fallen die gleichen Kosten an wie bei On-Demand-Abfragen. Da für CREATE MODEL
-Abfragen andere Gebühren gelten, müssen Sie Kosten für CREATE MODEL
-Jobs mithilfe des Audit-Logs von Cloud Logging unabhängig voneinander berechnen. Anhand der Audit-Logs können Sie ermitteln, welche Byte vom BigQuery ML-Dienst für jeden BigQuery ML-Job vom Typ CREATE MODEL
berechnet werden. Anschließend multiplizieren Sie die berechneten Byte mit den entsprechenden Kosten für CREATE MODEL
-Abfragen an Ihrem regionalen oder multiregionalen Standort.
Die Kosten für einen Abfragejob am Standort US
mit einer BigQuery ML-CREATE MODEL
-Anweisung können Sie beispielsweise so berechnen:
Öffnen Sie in der Google Cloud Console die Seite Cloud Logging.
Prüfen Sie, ob als Produkt BigQuery festgelegt ist.
Klicken Sie auf den Drop-down-Pfeil neben dem Feld „Nach Label oder Textsuche filtern“ und wählen Sie In erweiterten Filter umwandeln aus. Hierdurch wird dem Filter der folgende Text hinzugefügt:
resource.type="bigquery_resource"
Fügen Sie in der zweiten Zeile unter der Zeile
resource.type
den folgenden Text hinzu:protoPayload.serviceData.jobCompletedEvent.job.jobConfiguration.query.statementType="CREATE_MODEL"
Wählen Sie in der Drop-down-Liste rechts neben der Schaltfläche Filter senden einen geeigneten Zeitraum aus. Wenn Sie beispielsweise Letzte 24 Stunden auswählen, werden Ihnen die BigQuery ML-
CREATE MODEL
-Jobs angezeigt, die in den letzten 24 Stunden abgeschlossen wurden.Klicken Sie auf Filter senden, um die Jobs aus dem gewählten Zeitraum aufzurufen.
Klicken Sie auf Ansichtsoptionen, sobald die Daten zu sehen sind, und wählen Sie Benutzerdefinierte Felder ändern aus.
Geben Sie im Dialogfeld Benutzerdefinierte Felder hinzufügen Folgendes ein:
protoPayload.serviceData.jobCompletedEvent.job.jobStatistics.totalBilledBytes
Klicken Sie auf Speichern, um die Ergebnisse zu aktualisieren.
Multiplizieren Sie die in Rechnung gestellten Byte mit dem On-Demand-Preis für BigQuery ML, um die Kosten für den BigQuery ML-
CREATE MODEL
-Job zu berechnen. In diesem Beispiel wurden vomCREATE MODEL
-Job 100.873.011.200 Byte verarbeitet. Für die Berechnung der Kosten dieses Jobs am multiregionalen StandortUS
müssen Sie die abgerechneten Byte durch die Anzahl der Byte pro TiB teilen und anschließend mit den Kosten zur Modellerstellung multiplizieren:100873011200/1099511627776 x $312.5 = $28.669
BI Engine-Preise
BI Engine beschleunigt SQL-Abfragen, indem BigQuery-Daten im Arbeitsspeicher zwischengespeichert werden. Wie viele Daten gespeichert werden können, hängt davon ab, wie viel Kapazität Sie erwerben. Wenn Sie BI Engine-Kapazität erwerben möchten, erstellen Sie eine BI Engine-Reservierung in dem Projekt, in dem die Abfragen ausgeführt werden.
Wenn BI Engine eine Abfrage beschleunigt, ist die Abfragephase, in der Tabellendaten gelesen werden, kostenlos. Die weiteren Schritte hängen von der Art der BigQuery-Preise ab, die Sie verwenden:
Bei On-Demand-Preisen werden für Phasen, in denen die BI Engine verwendet wird, 0 gescannte Byte berechnet. Für die nachfolgenden Phasen fallen keine zusätzlichen On-Demand-Gebühren an.
Bei der Preisgestaltung für Editionen werden in der ersten Phase keine BigQuery-Reservierungsslots verbraucht. In den nachfolgenden Phasen werden Slots aus der BigQuery-Reservierung verwendet.
Die Preise für BI Engine sehen so aus:
Editions-Zusicherungs-Bundle
Wenn Sie BigQuery Kapazitätsabrechnung mit Zusicherungen für BigQuery-Versionen verwenden, erhalten Sie im Rahmen des Versionspreises eine begrenzte Menge an BI Engine-Kapazität ohne Aufpreis, wie in der folgenden Tabelle dargestellt. Wenn Sie BI Engine-Kapazität ohne Aufpreis erhalten möchten, folgen Sie der Anleitung zum Reservieren von Kapazität in einem Projekt innerhalb derselben Organisation wie Ihre Editionsreservierung. Damit die BI Engine-Reservierung eines bestimmten Projekts auf diese gebündelte Kapazität angerechnet wird, müssen dem Projekt einige Slots zugewiesen sein. BI Engine-Reservierungen in einem „On-Demand-Analyse“-Projekt werden nicht auf die kostenlose Kapazität angerechnet. In Ihren Abrechnungsberichten werden die kostenlosen Kapazitäten als normale Kosten ausgewiesen, aber als „Rabatt basierend auf Ausgaben“ reduziert.
Anzahl der gekauften Slots | Ohne Kosten, zusätzliche BI Engine-Kapazität (GiB) |
---|---|
100 | 5 |
500 | 25 |
1.000 | 50 |
1.500 | 75 |
2000 | 100 (maximal pro Organisation) |
Kostenlose Vorgänge
Die folgenden BigQuery-Vorgänge sind an jedem Standort kostenlos. Für diese Vorgänge gelten Kontingente und Limits.
Wenn Sie Tabellen regionenübergreifend kopieren, werden Ihnen Kosten für die Datenreplikation in Rechnung gestellt.Vorgang | Details |
---|---|
Daten im Batch laden | Für das Laden von Daten im Batch mit dem Pool für freigegebene Slots fallen keine Kosten an. Sie können auch eine Reservierung mit Versionspreisen für garantierte Kapazität erstellen. Nachdem die Daten in BigQuery geladen wurden, wird Ihnen der Speicherplatz in Rechnung gestellt. Weitere Informationen finden Sie unter Daten im Batch laden. |
Daten kopieren | Das Kopieren einer Tabelle kostet nichts, aber für das Speichern der neuen Tabelle fallen Gebühren an. Weitere Informationen finden Sie im Abschnitt Tabelle kopieren. |
Daten exportieren | Für den gemeinsam genutzten Slot-Pool fallen keine Daten an, aber für das Speichern der Daten in Cloud Storage. Sie können auch eine Reservierung mit Versionspreisen für garantierte Kapazität erstellen. Wenn Sie die SQL-Anweisung EXPORT DATA verwenden, wird Ihnen die Abfrageverarbeitung in Rechnung gestellt. Weitere Informationen finden Sie unter Daten exportieren. |
Vorgänge löschen | Für das Löschen von Datasets oder Tabellen, einzelnen Tabellenpartitionen, Ansichten oder benutzerdefinierten Funktionen fallen keine Kosten an. |
Kostenlose Nutzungsstufe
Im Rahmen der Google Cloud kostenlosen Stufe bietet BigQuery einige Ressourcen bis zu einem bestimmten Limit kostenlos an. Diese kostenlosen Nutzungskontingente sind während des kostenlosen Testzeitraums und auch danach verfügbar. Wenn Sie die Nutzungslimits überschreiten und der kostenlose Testzeitraum abgelaufen ist, fallen die auf dieser Seite genannten Gebühren an. Sie können das kostenlose Kontingent von BigQuery in der BigQuery-Sandbox ohne Kreditkarte testen.
Ressource | Monatliche Limits für kostenlose Nutzung | Details |
---|---|---|
Speicher | Die ersten 10 GiB pro Monat sind kostenlos. | Das kostenlose Speicherkontingent beinhaltet BigQuery ML-Modelle und in BigQuery gespeicherte Trainingsdaten. |
Abfragen (Analyse) | Das erste Tebibyte (1 TiB) an verarbeiteten Abfragedaten pro Monat ist kostenlos. |
BigQuery bietet auch Editions-Preise für Kunden mit hohem Datenvolumen, die für Abfragen einen festen monatlichen Betrag bevorzugen. |
Pauschalpreise
Pauschalpreise für Compute
Wenn Sie das Pauschalpreismodell für die Rechenleistung verwenden, erwerben Sie eine bestimmte Anzahl an BigQuery-Slots für die Abfrageverarbeitung. Ihre Abfragen verbrauchen diese Kapazität. Ihnen werden die verarbeiteten Byte nicht in Rechnung gestellt. Wenn Ihre Kapazitätsanforderungen die Ihnen zugesicherte Kapazität überschreiten, stellt BigQuery die Abfragen in die Warteschlange und es werden keine zusätzlichen Gebühren berechnet.
Pauschalpreise für Compute:
- Bezieht sich auf Abfragekosten, einschließlich BigQuery ML, DML- und DDL-Anweisungen.
- Gilt nicht für Speicherkosten oder BI Engine-Kosten.
- Gilt nicht für Streaming-Insert-Anweisungen und die Verwendung der BigQuery Storage API.
- Wird als regionale Ressource gekauft. Die in einer bestimmten Region oder Mehrfachregion erworbenen Slot-Zusicherungen können nicht in einer anderen Region oder Mehrfachregion verwendet oder dorthin transferiert werden.
- Ist in Form von sekundengenauen (flexiblen), monatlichen und jährlichen Zusicherungen erhältlich.
- Kann für Ihre gesamte Organisation angewandt werden. Slot-Zusicherungen müssen nicht für jedes einzelne Projekt erworben werden.
- Wird in 100-Slot-Schritten erworben. Das Minimum liegt bei 100 Slots.
- Wird pro Sekunde abgerechnet, bis Sie die Zusicherung kündigen. Dies kann jederzeit nach dem Enddatum einer Zusicherung erfolgen.
Zusicherungen zum monatlichen Pauschalpreis
Die folgende Tabelle zeigt die Kosten für Ihre monatliche Slot-Zusicherung mit Pauschalpreis: Weitere Informationen finden Sie unter Monatliche Zusicherungen.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Zusicherungen zu einem jährlichen Pauschalpreis
Die folgende Tabelle zeigt die Kosten für Ihre jährliche Slot-Zusicherung mit Pauschalpreis: Weitere Informationen finden Sie unter Jährliche Zusicherungen.
Wenn Sie in einer anderen Währung als US-Dollar bezahlen, gelten die Preise, die unter Cloud Platform SKUs für Ihre Währung angegeben sind.
Flex-Slots: kurzfristige Zusicherungen zum Pauschalpreis
Flex-Slots sind ein spezieller Zusicherungstyp:
- Die Dauer der Zusicherung beträgt nur 60 Sekunden.
- Sie können Flex-Slots jederzeit kündigen.
- Abgerechnet wird lediglich die Dauer der Bereitstellung in Sekunden.
Flex-Slots unterliegen der Kapazitätsverfügbarkeit. Es kann nicht garantiert werden, dass der Kauf von Flex-Slots erfolgreich ist. Sobald Sie den Zusicherungskauf erfolgreich abgeschlossen haben, wird die Kapazität bis zur Stornierung garantiert. Weitere Informationen finden Sie unter Flex-Slots.
Die folgende Tabelle zeigt die Kosten für Ihre Flex-Slot-Zusicherung:
Pauschalpreise für BigQuery Omni
BigQuery Omni bietet Pauschalpreise, die wiederum vorhersehbare Kosten für Abfragen liefern. Verwenden Sie BigQuery Reservations, um Pauschalpreise zu aktivieren.
Wenn Sie sich für Pauschalpreise für BigQuery Omni registrieren, erwerben Sie eine bestimmte Abfrageverarbeitungskapazität, die in Slots gemessen wird, für Amazon Web Services oder Microsoft Azure. Ihre Abfragen verbrauchen diese Kapazität. Ihnen werden die verarbeiteten Byte nicht in Rechnung gestellt.
Pauschalpreise für BigQuery Omni:
- Bezieht sich auf Abfragekosten. Gilt nicht für Speicherkosten.
- Slot-Zusicherungen werden für eine einzelne Multi-Cloud-Region erworben. Die in einer Region erworbene Kapazität kann nicht in einer anderen Region genutzt werden.
- Ist in Form von monatlichen und jährlichen Zusicherungen verfügbar. Wird pro Sekunde abgerechnet, bis Sie die Zusicherung kündigen. Dies kann jederzeit nach dem Enddatum einer Zusicherung erfolgen.
- Kann für Ihre gesamte Organisation angewandt werden. Slot-Zusicherungen müssen nicht für jedes einzelne Projekt erworben werden.
- Wird in 100-Slot-Schritten erworben. Das Minimum liegt bei 100 Slots.
Zusicherungen zum monatlichen Pauschalpreis
Die folgende Tabelle zeigt die Kosten für Ihre monatliche Slot-Zusicherung: Weitere Informationen finden Sie unter Monatliche Zusicherungen.
Zusicherungen zu einem jährlichen Pauschalpreis
Die folgende Tabelle zeigt die Kosten für Ihre jährliche Slot-Zusicherung: Weitere Informationen finden Sie unter Jährliche Zusicherungen.
Flex-Slots: kurzfristige Zusicherungen
Flex-Slots sind ein spezieller Zusicherungstyp:
- Die Dauer der Zusicherung beträgt nur 60 Sekunden.
- Sie können Flex-Slots jederzeit kündigen.
- Abgerechnet wird lediglich die Dauer der Bereitstellung in Sekunden.
Flex-Slots in BigQuery Omni unterliegen der Kapazitätsverfügbarkeit in AWS oder Azure. Es kann nicht garantiert werden, dass der Kauf von Flex-Slots erfolgreich ist. Sobald Sie den Zusicherungskauf erfolgreich abgeschlossen haben, wird die Kapazität bis zur Stornierung garantiert. Weitere Informationen finden Sie unter Flex-Slots.
Die folgende Tabelle zeigt die Kosten für Ihre Flex-Slot-Zusicherung:
BI Engine-Paket mit Zusicherung zu einem Pauschalpreis
Wenn Sie BigQuery-Pauschalpreisangebote mit Slot-Zusicherungen nutzen, erhalten Sie im Rahmen des Pauschalpreises eine begrenzte Menge an BI Engine-Kapazität ohne Aufpreis, wie in der folgenden Tabelle dargestellt. Wenn Sie BI Engine-Kapazität ohne Aufpreis erhalten möchten, folgen Sie der Anleitung zum Reservieren von Kapazität in einem Projekt innerhalb derselben Organisation wie Ihre Pauschalreservierung. Damit die BI Engine-Reservierung eines bestimmten Projekts auf diese gebündelte Kapazität angerechnet wird, müssen dem Projekt einige Slots zugewiesen sein. Eine BI Engine-Reservierung in einem On-Demand-Rechenprojekt wird nicht auf die kostenlose Kapazität angerechnet. In Ihren Abrechnungsberichten werden die kostenlosen Kapazitäten als normale Kosten ausgewiesen, aber als „Rabatt basierend auf Ausgaben“ reduziert.
Anzahl der gekauften Slots | Ohne Kosten, zusätzliche BI Engine-Kapazität (GiB) |
---|---|
100 | 5 |
500 | 25 |
1.000 | 50 |
1.500 | 75 |
2000 | 100 (maximal pro Organisation) |
Nächste Schritte
Weitere Informationen zum Analysieren von Abrechnungsdaten mithilfe von Berichten finden Sie unter Abrechnungsberichte und Kostentrends ansehen.
Informationen zum Analysieren der Abrechnungsdaten in BigQuery finden Sie unter Cloud Billing-Daten in BigQuery exportieren.
Informationen zu geschätzten Kosten finden Sie unter Speicher- und Abfragekosten schätzen.
Lesen Sie die BigQuery-Dokumentation.
Erste Schritte mit BigQuery.
Preisrechner ausprobieren
Informationen zu Anthos-Lösungen und -Anwendungsfällen.