Dieses Dokument enthält aktuelle Beschränkungen und Nutzungslimits bei der Verwendung von Sensitive Data Protection. Weitere Informationen finden Sie auf der Seite "Preise".
Die Limits gelten für alle Google Cloud Console-Projekte sowie für alle Anwendungen und IP-Adressen, die dieses Projekt verwenden.
Sie können in der Google Cloud -Konsole niedrigere Kontingente festlegen.
Anfragekontingente
In dieser Tabelle sind wichtige Kontingente für Sensitive Data Protection-Anfragen pro Projekt aufgeführt. Weitere Kontingente finden Sie in der Google Cloud Console auf der Seite Kontingente und Systemlimits.
Anfragekontingent | Wert | Beschreibung |
---|---|---|
Anzahl der Anfragen pro Minute | 10.000 | Gesamtzahl der Anfragen an alle globalen und regionalen Endpunkte (REP) für Sensitive Data Protection an allen Standorten |
Anzahl der Anfragen an einen regionalen Endpunkt pro Minute und Region | 600 | Anfragen an den globalen Endpunkt (dlp.googleapis.com ) mit Angabe eines Standorts |
Anzahl der Anfragen an einen regionalen REP-Endpunkt pro Minute und Region | 100 | Anfragen an einen regionalen Endpunkt (dlp.REP_REGION.rep.googleapis.com ) |
Ressourcenlimits
Sensitive Data Protection erzwingt die folgenden Limits für gespeicherte Ressourcen pro Projekt.
Ressource | Limit |
---|---|
Maximale Anzahl Vorlagen | 1000 |
Maximale Anzahl Job-Trigger | 1000 |
Maximale Anzahl aktive Jobs | 1000 |
Maximale Anzahl gespeicherte Infotypen | 30 |
Maximale Anzahl von Erkennungskonfigurationen | 100 |
Limits für das Prüfen und die De-Identifikation von Inhalten
Sensitive Data Protection erzwingt folgende Nutzungslimits für das Prüfen und Anonymisieren von Inhalten, die direkt in Form von Text oder Bildern an die DLP API gesendet werden:
Art des Limits | Nutzungsbeschränkung |
---|---|
Maximale Anzahl von regulären benutzerdefinierten Wörterbüchern pro Anfrage | 10 |
Maximale Größe jedes Zitats (ein mit Ergebnissen zurückgegebenes Kontext-Snippet des Texts, der eine Übereinstimmung ausgelöst hat) | 4 KB |
Maximale Anzahl von Tabellenwerten | 50.000 |
Maximale Anzahl von Transformationen pro Anfrage | 100 |
Maximale Anzahl von Prüfregeln pro Satz | 10 |
Maximale Anzahl von Prüfregelsätzen pro Prüfkonfiguration | 10 |
Maximale Anzahl von Ergebnissen pro Anfrage | 3.000 |
Maximale Größe jeder Anfrage, außer projects.image.redact |
0,5 MB |
Maximale Größe jeder projects.image.redact -Anfrage |
4 MB |
Wenn Sie Dateien prüfen müssen, die größer als diese Grenzwerte sind, speichern Sie sie in Cloud Storage und führen Sie einen Prüfjob aus.
Limits für die Speicherprüfung
Sensitive Data Protection erzwingt die folgenden Nutzungslimits für die Prüfung vonGoogle Cloud -Speicher-Repositories:
Art des Limits | Nutzungsbeschränkung |
---|---|
Maximale Gesamtscangröße | 2 TB |
Maximale Größe jedes Zitats (ein mit Ergebnissen zurückgegebenes Kontext-Snippet des Texts, der eine Übereinstimmung ausgelöst hat) | 4 KB |
Limits für die De-Identifikation von Speicherinhalten
Für Sensitive Data Protection gilt das folgende Nutzungslimit, wenn Sie Daten im Speicher pseudonymisieren:
Art des Limits | Nutzungsbeschränkung |
---|---|
Maximale Dateigröße | 60.000 KB |
Limits für die Datenprofilerstellung
In Sensitive Data Protection gelten die folgenden Nutzungslimits für die Profilerstellung für Daten.
Diese Limits gelten global für alle Datenkonfigurationen auf Organisations- und Projektebene.
Art des Limits | Nutzungsbeschränkung |
---|---|
Maximale Anzahl von Zeitplänen pro Erkennungsscankonfiguration | 100 |
Maximale Anzahl von Filtern pro Zeitplan | 100 |
Für die Profilerstellung genutzte Abokapazität | Weitere Informationen finden Sie auf dieser Seite unter Für Profilerstellung verwendete Abo-Kapazität. |
Für die Profilerstellung genutzte Abokapazität
Dieser Wert hängt von der Anzahl der von Ihnen erworbenen Aboeinheiten ab. Wenn Sie beispielsweise 5 Aboeinheiten erworben haben, erhalten Sie für den gesamten Monat 50.000 Tokens. Sie können also etwa 1.667 Tokens pro Tag verwenden (50.000 Tokens geteilt durch 30 Tage).
Wenn Sie die Nutzung der Abokapazität überprüfen möchten, rufen Sie die Seite Abos auf und klicken Sie auf Kapazitätsnutzung überprüfen.
Informationen dazu, wie viele Profile mit Ihren Tokens generiert werden können, finden Sie unter Datenressourcen, für die pro Aboeinheit ein Profil erstellt wird.
Limits für BigQuery-Profiling
Art des Limits | Nutzungsbeschränkung |
---|---|
Maximale Anzahl von BigQuery-Tabellen | 200.000 |
Maximale Summe der Spalten in allen BigQuery-Tabellen, für die ein Profil erstellt werden soll | 20.000.000 |
Beispiel: Limits auf Organisationsebene
Angenommen, Sie haben eine Organisation mit zwei Ordnern und erstellen für jeden Ordner eine Scankonfiguration. Die Gesamtzahl der Tabellen, für die ein Profil erstellt werden soll, darf 200.000 nicht überschreiten. Die Gesamtzahl der Spalten in diesen Tabellen darf 20.000.000 nicht überschreiten.
Beispiel: Limits auf Projektebene
Wenn Sie die Profilerstellung auf Projektebene konfigurieren, darf die Gesamtzahl der Tabellen in diesem Projekt 200.000 nicht überschreiten. Die Gesamtzahl der Spalten in diesen Tabellen darf 20.000.000 nicht überschreiten.
Cloud SQL-Profilierungslimits
Art des Limits | Nutzungsbeschränkung |
---|---|
Maximale Anzahl von Datenbanken pro Instanz | 1.000 |
Maximale Anzahl von Tabellen pro Datenbank | 20.000 |
Limits für benutzerdefinierte infoTypes
Sensitive Data Protection erzwingt folgende Limits für benutzerdefinierte InfoTypes.
Art des Limits | Nutzungsbeschränkung |
---|---|
Maximale Größe der Wortliste, die pro benutzerdefiniertem Wörterbuch direkt in die Anforderungsnachricht übergeben wird | 128 KB |
Maximale Größe der Wortliste, die pro benutzerdefiniertem Wörterbuch als Datei in Cloud Storage festgelegt wird | 512 KB |
Maximale Anzahl von Bestandteilen (kontinuierliche Sequenzen, die nur Buchstaben, nur Ziffern, nur Zeichen ohne Buchstaben oder nur Zeichen ohne Ziffern enthalten) pro Wortgruppe eines regulären benutzerdefinierten Wörterbuchs | 40 |
Maximale Gesamtgröße aller gespeicherten benutzerdefinierten Wörterbücher pro Anfrage | 5 MB |
Maximale Anzahl eingebundener und benutzerdefinierter infoTypes pro Anfrage | 150 |
Maximale Anzahl von Erkennungsregeln pro benutzerdefiniertem Infotyp | 5 |
Maximale Anzahl von benutzerdefinierten Infotypen pro Anfrage | 30 |
Maximale Anzahl von regulären benutzerdefinierten Wörterbüchern pro Anfrage | 10 |
Maximale Länge regulärer Ausdrücke | 1000 |
Gespeicherte infoType-Limits
Sensitive Data Protection erzwingt folgende Limits zum Erstellen gespeicherter infoTypes.
Art des Limits | Nutzungsbeschränkung |
---|---|
Maximale Größe einer in Cloud Storage gespeicherten Eingabedatei | 200 MB |
Maximale Gesamtgröße aller in Cloud Storage gespeicherten Eingabedateien | 1 GB |
Maximale Anzahl der in Cloud Storage gespeicherten Eingabedateien | 100 |
Maximale Größe einer Eingabespalte in BigQuery | 1 GB |
Maximale Anzahl der Eingabetabellenzeilen in BigQuery | 5.000.000 |
Maximale Größe der Ausgabedateien | 500 MB |
Avro-Scanlimits
Im Allgemeinen gelten bei Avro-Dateien dieselben Limits für den Schutz sensibler Daten und BigQuery. Bei Erreichen dieser Limits wird als Fallback binär gescannt. Für Anfragen zur Inspektion von Inhalten und Jobs für Speicherinspektionen in Avro-Dateien gelten die folgenden Limits:
Art des Limits | Nutzungsbeschränkung |
---|---|
Maximale Größe für einen einzelnen Avro-Block | 100 MB |
Maximale Größe für eine einzelne Avro-Datei | 1 TB |
Maximale Anzahl von Spalten in einer Avro-Datei | 10.000 |
Maximale Ebene der verschachtelten Felder | 15 |
Limits für das Scannen von PDFs und Microsoft-Produkten
Diese Limits gelten beim Scannen der folgenden Dateitypen:
- Microsoft Word
- Microsoft Excel
- Microsoft PowerPoint
Bei Erreichen dieser Limits wird als Fallback binär gescannt.
Art des Limits | Nutzungslimit |
---|---|
Maximale Größe einer einzelnen PDF-Datei in Cloud Storage. Dateien, die dieses Limit überschreiten, werden binär gescannt. | 150 MB, bis zu 10.000 Seiten |
Maximale Größe einer einzelnen Word-Datei in Cloud Storage. Dateien, die dieses Limit überschreiten, werden binär gescannt. | 30 MB |
Maximale Größe einer einzelnen Excel-Datei in Cloud Storage. Dateien, die dieses Limit überschreiten, werden binär gescannt. | 30 MB |
Maximale Größe einer einzelnen PowerPoint-Datei in Cloud Storage. Dateien, die dieses Limit überschreiten, werden binär gescannt. | 30 MB |
Diese Limits gelten für diese Dateitypen auch dann, wenn Sie eine maximale Bytegröße pro Datei festlegen.
Kontingent erhöhen
Sie können die Kontingente auf die jeweiligen Maximalwerte erhöhen. Rufen Sie dazu die Seite Kontingente und Systemlimits für Ihr Projekt auf. Wenn Sie eine Erhöhung des Kontingents anfordern möchten, geben Sie für Ihr Kontingent die gewünschte Erhöhung und eine Begründung an und senden Sie diese Aktualisierung. Sie werden benachrichtigt, sobald Ihr Antrag eingegangen ist. Möglicherweise werden Sie um weitere Informationen zu Ihrem Antrag gebeten. Nach Prüfung des Antrags wird Ihnen mitgeteilt, ob er genehmigt oder abgelehnt wurde.
Kontingentabhängigkeiten
Abhängig von den verwendeten Funktionen benötigen Sie möglicherweise zusätzliche Kontingente.
- Pub/Sub: Wenn Sie Pub/Sub verwenden, benötigen Sie möglicherweise zusätzliche Kontingente.
- BigQuery:
- Die Streaming API wird verwendet, um Ergebnisse für Prüfjobs zu speichern, für die Kontingentwerte und andere Einschränkungen gelten.
google.cloud.bigquery.storage.v1beta1.BigQueryStorage
, das den Inhalt von Zeilen in einer Tabelle auflistet, unterliegt Kontingentlimits.
Mehr über Dienstunterbrechungen erfahren
Einige Funktionen von Sensitive Data Protection sind von anderenGoogle Cloud -Diensten abhängig. Aufgrund dieser Abhängigkeiten können Sie davon ausgehen, dass die Zuverlässigkeit von Sensitive Data Protection mit der Zuverlässigkeit dieser Produkte vergleichbar ist.
Bei wiederkehrenden Fehlern bemühen wir uns, die Vorgänge so lange zu wiederholen, bis die Fehler behoben sind. Wenn die oben genannten Dienste jedoch unterbrochen werden, kann sich dies negativ auf die Leistung auswirken.
Im Status-Dashboard fürGoogle Cloud finden Sie alle bekannten Dienstunterbrechungen. Sie können auch den JSON-Feed oder RSS-Feed für Aktualisierungen zumGoogle Cloud Status-Dashboard abonnieren, um entsprechende Push-Mitteilungen zu erhalten.