Cuotas y límites

En este documento se indican las cuotas y los límites del sistema que se aplican a BigQuery.

  • Las cuotas especifican la cantidad de un recurso compartido y contable que puedes usar. Las cuotas se definen por Google Cloud servicios como BigQuery.
  • Los límites del sistema son valores fijos que no se pueden cambiar.

Google Cloud usa cuotas para garantizar la equidad y reducir los picos en el uso y la disponibilidad de los recursos. Una cuota restringe la cantidad de unGoogle Cloud recurso que puede usar tu Google Cloud proyecto. Las cuotas se aplican a una serie de tipos de recursos, incluidos los componentes de hardware, software y red. Por ejemplo, las cuotas pueden restringir el número de llamadas a una API enviadas a un servicio, el número de balanceadores de carga que usa tu proyecto de forma simultánea o el número de proyectos que puedes crear. Las cuotas protegen a la comunidad de usuarios deGoogle Cloud al evitar que se sobrecarguen los servicios. Las cuotas también te ayudan a gestionar tus propios Google Cloud recursos.

El sistema de cuotas de Cloud hace lo siguiente:

En la mayoría de los casos, cuando intentas consumir más recursos de los que permite la cuota, el sistema bloquea el acceso al recurso y la tarea que intentas realizar falla.

Las cuotas se aplican generalmente a nivel de Google Cloud proyecto. El uso que hagas de un recurso en un proyecto no afectará a la cuota disponible en otro proyecto. En un Google Cloud proyecto, las cuotas se comparten entre todas las aplicaciones y direcciones IP.

También hay límites del sistema en los recursos de BigQuery. Los límites del sistema no se pueden cambiar.

De forma predeterminada, las cuotas y los límites de BigQuery se aplican a cada proyecto. Las cuotas y los límites que se aplican de forma diferente se indican como tales. Por ejemplo, el número máximo de columnas por tabla o el número máximo de solicitudes de API simultáneas por usuario. Las políticas específicas están sujetas a cambios sin previo aviso y varían según la disponibilidad de los recursos en cuestión, el perfil del usuario, el historial de uso del servicio y otros factores.

Reposición de cuota

Como su objetivo es controlar el límite de frecuencia, las cuotas diarias se reponen a intervalos regulares a lo largo del día. También se realiza una actualización intermitente para evitar interrupciones prolongadas en caso de que se agote la cuota. Por lo general, se ofrece más cuota en cuestión de minutos en lugar de reponerse de forma global una vez al día.

Solicitar un aumento de cuota

Para ajustar la mayoría de las cuotas, usa la Google Cloud consola. Para obtener más información, consulta Solicitar un ajuste de cuota.

Para obtener instrucciones detalladas sobre cómo solicitar un aumento de cuota en la consola, haz clic en Ayúdame: Google Cloud

Guíame

Limitar el uso de cuotas

Para saber cómo puedes limitar el uso de un recurso en concreto creando una anulación de cuota, consulta el artículo Crear una anulación de cuota.

Permisos obligatorios

Para ver y actualizar tus cuotas de BigQuery en la Google Cloud consola, necesitas los mismos permisos que para cualquier Google Cloud cuota. Para obtener más información, consulta los Google Cloud permisos de cuota.

Solucionar problemas

Para obtener más información sobre cómo solucionar los errores relacionados con las cuotas y los límites, consulta el artículo Solucionar errores de cuota de BigQuery.

Empleo

Las cuotas y los límites se aplican a las tareas que BigQuery ejecuta en tu nombre, ya sea mediante la consola de Google Cloud , la herramienta de línea de comandos bq o de forma programática mediante la API REST o las bibliotecas de cliente.

Tareas de consulta

Se aplican las siguientes cuotas a las tareas de consulta creadas automáticamente al ejecutar consultas interactivas y programadas, así como a las tareas enviadas mediante los métodos de API jobs.query y jobs.insert de tipo consulta:

Cuota Predeterminado Notas
Uso de consultas al día Ilimitado
A partir del 1 de septiembre del 2025, el límite predeterminado pasará de ilimitado a 200 tebibytes (TiB).
Esta cuota solo se aplica al modelo de precios de las consultas bajo demanda.
De forma predeterminada, no hay límite en el número de bytes que pueden procesar las consultas de un proyecto. Consulte el artículo Crear cuotas de consultas personalizadas para obtener más información sobre los controles de costes.
Ver cuota en la Google Cloud consola
Uso de consultas al día por usuario Ilimitado Esta cuota solo se aplica al modelo de precios de las consultas bajo demanda.
De forma predeterminada, no hay límite en el número de bytes que pueden procesar las consultas de un usuario cada día. Consulte el artículo Crear cuotas de consultas personalizadas para obtener más información sobre los controles de costes.
Ver cuota en la Google Cloud consola
Bytes entre regiones por día de consultas federadas de Cloud SQL 1 TB Si la ubicación de procesamiento de las consultas de BigQuery y la ubicación de la instancia de Cloud SQL son diferentes, la consulta será entre regiones. Tu proyecto puede ejecutar hasta 1 TB de consultas entre regiones al día. Consulta las consultas federadas de Cloud SQL.
Ver cuota en la Google Cloud consola
Bytes transferidos entre nubes al día 1 TB Puedes transferir hasta 1 TB de datos al día desde un segmento de Amazon S3 o desde Azure Blob Storage. Para obtener más información, consulta los artículos sobre la transferencia entre nubes desde Amazon S3 y Azure.
Ver cuota en la Google Cloud consola

Se aplican los siguientes límites a las tareas de consulta creadas automáticamente al ejecutar consultas interactivas y programadas, así como a las tareas enviadas con los métodos de API jobs.query y jobs.insert de tipo consulta:

Límite Predeterminado Notas
Número máximo de consultas interactivas en cola 1.000 consultas Tu proyecto puede poner en cola hasta 1000 consultas interactivas. Las consultas interactivas adicionales que superen este límite devolverán un error de cuota.
Número máximo de consultas por lotes en cola 20.000 consultas Tu proyecto puede poner en cola hasta 20.000 consultas por lotes. Las consultas por lotes adicionales que superen este límite devolverán un error de cuota.
Número máximo de consultas interactivas simultáneas a fuentes de datos externas de Bigtable 16 consultas Tu proyecto puede ejecutar hasta dieciséis consultas simultáneas en fuentes de datos externas de Bigtable.
Número máximo de consultas simultáneas que contienen funciones remotas 10 consultas Puedes ejecutar hasta diez consultas simultáneas con funciones remotas por proyecto.
Número máximo de consultas simultáneas con varias instrucciones 1000 consultas con varias instrucciones Tu proyecto puede ejecutar hasta 1000 consultas con varias instrucciones simultáneas. Para consultar otras cuotas y límites relacionados con las consultas de varias instrucciones, consulta Consultas de varias instrucciones.
Número máximo de consultas de SQL antiguo simultáneas que contienen funciones definidas por el usuario 6 consultas Tu proyecto puede ejecutar hasta seis consultas de SQL antiguo simultáneas con funciones definidas por el usuario. Este límite incluye las consultas interactivas y las por lotes. Las consultas interactivas que contienen funciones definidas por el usuario también cuentan de cara al límite de consultas interactivas simultáneas. Este límite no se aplica a las consultas de GoogleSQL.
Límite diario del tamaño de las consultas Ilimitado De forma predeterminada, no hay límite diario del tamaño de las consultas. Sin embargo, puedes fijar límites en la cantidad de datos que pueden consultar los usuarios creando cuotas personalizadas para controlar el uso de consultas por día o el uso de consultas por día y por usuario.
Límite diario de actualización de tablas de destino Consulta Número máximo de operaciones de tabla al día. Las actualizaciones de las tablas de destino de una tarea de consulta se tienen en cuenta para calcular el número máximo de operaciones de tabla por día de las tablas de destino. Estas actualizaciones incluyen las operaciones de anexión y sobrescritura ejecutadas por consultas que realices mediante la consola de Cloud, la herramienta de línea de comandos Google Cloud o las llamadas a los métodos de API jobs.query y jobs.insert de tipo consulta.
Límite de tiempo de ejecución de consultas o consultas de varias instrucciones 6 horas

Una consulta o una consulta de varias instrucciones puede ejecutarse durante un máximo de 6 horas y, después, falla. Sin embargo, a veces vuelven a intentar procesarse. Una consulta se puede intentar hasta tres veces y cada intento se puede ejecutar durante un máximo de seis horas. Por lo tanto, es posible que una consulta tenga un tiempo de ejecución total de más de 6 horas.

CREATE MODEL El tiempo de espera predeterminado de los trabajos es de 24 horas, excepto en el caso de los trabajos de series temporales, AutoML y ajuste de hiperparámetros, que tienen un tiempo de espera de 48 horas.

Número máximo de recursos a los que se hace referencia por consulta 1000 recursos Una consulta puede hacer referencia a un máximo de 1000 tablas, vistas, funciones definidas por el usuario (UDFs) y funciones de tabla únicas en total tras la expansión completa. Este límite incluye lo siguiente:
  • Tablas, vistas, funciones definidas por el usuario y funciones de tabla a las que hace referencia directamente la consulta.
  • Tablas, vistas, UDFs y funciones de tabla a las que hacen referencia otras vistas, UDFs o funciones de tabla en la consulta.
Longitud máxima de los caracteres de una consulta de SQL 1024 k caracteres Una consulta de SQL puede tener una longitud máxima de 1024 K caracteres. Este límite incluye comentarios y espacios en blanco. Si la consulta es más larga, recibirá el siguiente error: The query is too large. Para no superar este límite, puede sustituir las matrices o listas grandes por parámetros de consulta y dividir una consulta larga en varias consultas en la sesión.
Longitud máxima de las consultas de SQL antiguo sin resolver 256 kB Una consulta de SQL antiguo sin resolver puede tener una longitud de hasta 256 KB. Si tu consulta es más larga, recibirás el siguiente error: The query is too large. Para no superar este límite, te recomendamos que sustituyas las matrices o listas grandes por parámetros de consulta.
Longitud máxima de las consultas de GoogleSQL sin resolver 1 MB Una consulta de GoogleSQL sin resolver puede tener una longitud de hasta 1 MB. Si tu consulta es más larga, recibirás el siguiente error: The query is too large. Para no superar este límite, te recomendamos que sustituyas las matrices o listas grandes por parámetros de consulta.
Longitud máxima de las consultas de SQL antiguo y GoogleSQL resueltas 12 MB En el límite de longitud de las consultas resueltas se incluye la longitud de todas las vistas y tablas comodín a las que la consulta hace referencia.
Número máximo de parámetros de consulta de GoogleSQL 10.000 parámetros Una consulta de GoogleSQL puede tener hasta 10.000 parámetros.
Tamaño máximo de la solicitud 10 MB El tamaño de la solicitud puede ser de hasta 10 MB, incluidas las propiedades adicionales, como los parámetros de consulta.
Tamaño máximo de respuesta 10 GB comprimidos El tamaño varía en función de la relación de compresión que se utilice para los datos. El tamaño de respuesta real puede ser significativamente superior a 10 GB. El tamaño máximo de respuesta es ilimitado cuando se escribe un gran volumen de resultados de consulta en una tabla de destino.
Tamaño máximo de las filas 100 MB El tamaño máximo de las filas es aproximado porque se basa en la representación interna de los datos que contienen. Este límite se aplica durante ciertas fases de la ejecución de las tareas de consulta.
Número máximo de columnas en una tabla, resultado de consulta o definición de vista 10.000 columnas Una tabla, un resultado de consulta o una definición de vista pueden tener hasta 10.000 columnas. Esto incluye columnas anidadas y repetidas. Las columnas eliminadas pueden seguir contando para el número total de columnas. Si has eliminado columnas, es posible que recibas errores de cuota hasta que se restablezca el total.
Número máximo de ranuras simultáneas para el precio bajo demanda 2000 ranuras por proyecto

20.000 ranuras por organización
Con los precios bajo demanda, tu proyecto puede tener hasta 2000 ranuras simultáneas. También hay un límite de 20.000 espacios simultáneos a nivel de organización. BigQuery intenta asignar ranuras de forma equitativa entre los proyectos de una organización si la demanda total es superior a 20.000 ranuras. Todas las consultas de un mismo proyecto comparten las ranuras de BigQuery. Para agilizar las consultas, BigQuery puede superar este límite. La capacidad está sujeta a disponibilidad. Si quieres saber cuántas ranuras estás utilizando, consulta el artículo sobre cómo monitorizar BigQuery con Cloud Monitoring.
Uso máximo de CPU por datos analizados para el precio bajo demanda 256 segundos de CPU por MiB analizado Con los precios bajo demanda, tu consulta puede usar hasta aproximadamente 256 segundos de CPU por MiB de datos analizados. Si tu consulta requiere demasiada CPU para la cantidad de datos que se están procesando, se producirá un error billingTierLimitExceeded. Para obtener más información, consulta el artículo Mensajes de error.
Mutaciones de tablas de transacciones con varias instrucciones 100 tablas Una transacción puede modificar los datos de un máximo de 100 tablas.
Modificaciones de particiones de transacciones con varias instrucciones 100.000 modificaciones de partición Una transacción puede realizar como máximo 100.000 modificaciones de particiones.
Tamaño máximo de los resultados de las consultas de BigQuery Omni 20 GiB sin comprimir El tamaño máximo de los resultados es de 20 GiB de bytes lógicos al consultar datos de Azure o AWS. Si el resultado de la consulta es superior a 20 GiB, considere la posibilidad de exportar los resultados a Amazon S3 o Blob Storage. Para obtener más información, consulta las limitaciones de BigQuery Omni.
Tamaño total de los resultados de las consultas de BigQuery Omni por día 1 TB El tamaño total de los resultados de las consultas de un proyecto es de 1 TB al día. Para obtener más información, consulta las limitaciones de BigQuery Omni.
Tamaño máximo de las filas de BigQuery Omni 10 MiB El tamaño máximo de las filas es de 10 MiB cuando se consultan datos de Azure o AWS. Para obtener más información, consulta las limitaciones de BigQuery Omni.

A pesar de que las consultas programadas utilizan funciones de BigQuery Data Transfer Service, no son transferencias ni están sujetas a los límites de las tareas de carga.

Tareas de exportación

Los siguientes límites se aplican a las tareas de exportación de datos desde BigQuery mediante la herramienta de línea de comandos bq, la consola de Google Cloud o el método de API jobs.insert de tipo exportación.

Límite Predeterminado Notas
Número máximo de bytes exportados al día 50 TiB Puedes exportar hasta 50 TiB(tebibytes) de datos al día de un proyecto sin coste económico con el grupo de ranuras compartido. Puedes configurar una política de alertas de Cloud Monitoring que te notifique el número de bytes exportados. Si quieres exportar más de 50 TiB(tebibytes) de datos al día, haz una de las siguientes acciones:
Número máximo de trabajos de exportación al día 100.000 exportaciones Puedes ejecutar hasta 100.000 exportaciones al día en un proyecto. Para ejecutar más de 100.000 exportaciones al día, haz una de las siguientes acciones:
Tamaño máximo de tabla exportada a un solo archivo 1 GB Puedes exportar hasta 1 GB de datos de tabla a un solo archivo. Para exportar más de 1 GB de datos, usa un comodín para exportar los datos en varios archivos. Cuando exportas datos a varios archivos, el tamaño de los archivos varía. En algunos casos, el tamaño de los archivos de salida es superior a 1 GB.
URIs comodín por exportación 500 URIs Una exportación puede tener hasta 500 URIs comodín.

Para obtener más información sobre cómo ver el uso actual de los trabajos de exportación, consulta el artículo Ver el uso actual de la cuota.

Tareas de carga

Se aplican los siguientes límites cuando cargas datos en BigQuery con la consolaGoogle Cloud , la herramienta de línea de comandos bq o el método de API jobs.insert de tipo carga.

Límite Predeterminado Notas
Tareas de carga por tabla y día 1500 tareas Las tareas de carga, incluidas las que han fallado, se tienen en cuenta para el límite del número de operaciones de tabla por día de la tabla de destino. Para obtener información sobre los límites del número de operaciones de tabla al día en las tablas estándar y en las tablas con particiones, consulte Tablas.
Tareas de carga por día 100.000 tareas Tu proyecto se repone con una cuota máxima de 100.000 tareas de carga cada 24 horas. Las tareas de carga fallidas se tienen en cuenta para este límite. En algunos casos, es posible ejecutar más de 100.000 trabajos de carga en 24 horas si no se ha utilizado por completo la cuota del día anterior.
Número máximo de columnas por tabla 10.000 columnas Una tabla puede tener hasta 10.000 columnas. Esto incluye columnas anidadas y repetidas.
Tamaño máximo por trabajo de carga 15 TB El tamaño total de todos los archivos de entrada CSV, JSON, Avro, Parquet y ORC puede ser de hasta 15 TB. Este límite no se aplica a los trabajos con una reserva.
Número máximo de URIs de origen en la configuración de la tarea 10.000 URIs Una configuración de tarea puede tener hasta 10.000 URIs de origen.
Número máximo de archivos por tarea de carga 10.000.000 de archivos Una tarea de carga puede tener hasta 10 millones de archivos en total, incluidos todos los archivos que coincidan con todas las URIs comodín.
Número máximo de archivos del segmento de Cloud Storage de origen Aproximadamente 60.000.000 de archivos Una tarea de carga puede leer datos de un segmento de Cloud Storage que contenga hasta aproximadamente 60.000.000 de archivos.
Límite de tiempo de ejecución de tareas de carga 6 horas Un trabajo de carga falla si se ejecuta durante más de seis horas.
Avro: tamaño máximo de los bloques de datos de los archivos 16 MB El límite de tamaño de los bloques de datos de los archivos Avro es de 16 MB.
CSV: tamaño máximo de las celdas 100 MB Las celdas de los archivos CSV pueden tener un tamaño máximo de 100 MB.
CSV: tamaño máximo de fila 100 MB Las filas de los archivos CSV pueden tener un tamaño máximo de 100 MB.
CSV: tamaño máximo del archivo (comprimido) 4 GB El límite de tamaño de un archivo CSV comprimido es de 4 GB.
CSV: tamaño máximo del archivo (sin comprimir) 5 TB El límite de tamaño de un archivo CSV sin comprimir es de 5 TB.
JSON delimitado por líneas nuevas (ndJSON): tamaño máximo de las filas 100 MB El tamaño de las filas ndJSON puede ser de hasta 100 MB.
ndJSON: tamaño máximo de archivo (comprimido) 4 GB El límite de tamaño de un archivo ndJSON comprimido es de 4 GB.
ndJSON: tamaño máximo de archivo sin comprimir 5 TB El límite de tamaño de un archivo ndJSON sin comprimir es de 5 TB.

Si superas con frecuencia los límites de las tareas de carga debido a las actualizaciones frecuentes, te recomendamos que transfieras datos a BigQuery.

Para obtener información sobre cómo ver el uso actual de los trabajos de carga, consulta Ver la cuota de uso actual.

Consideraciones sobre las cuotas de los trabajos de carga de BigQuery Data Transfer Service

Las tareas de carga creadas por transferencias de BigQuery Data Transfer Service se incluyen en las cuotas de tareas de carga de BigQuery. Hay que tener en cuenta el número de transferencias que se habilitan por proyecto para evitar que se produzcan errores quotaExceeded debido a transferencias u otras tareas de carga.

Utiliza la siguiente ecuación para estimar el número de tareas de carga que necesitas según tus transferencias:

Number of daily jobs = Number of transfers x Number of tables x Schedule frequency x Refresh window

Donde:

  • Number of transfers es el número de configuraciones de transferencia que habilitas en el proyecto.
  • Number of tables es el número de tablas creadas por cada tipo de transferencia. El número de tablas varía en función del tipo de transferencia:

    • Las transferencias de Campaign Manager crean unas 25 tablas.
    • Las transferencias de Google Ads crean unas 60 tablas.
    • Las transferencias de Google Ad Manager crean unas 40 tablas.
    • Las transferencias de Google Play crean unas 25 tablas.
    • Las transferencias de Search Ads 360 crean unas 50 tablas.
    • Las transferencias de YouTube crean unas 50 tablas.
  • Schedule frequency describe con qué frecuencia se ejecuta la transferencia. Consulta las programaciones de ejecución de cada tipo de transferencia:

  • Refresh window es el número de días que hay que incluir en la transferencia de datos. Si introduces 1, no habrá reposición diaria.

Tareas de copia

Se aplican los siguientes límites a las tareas de BigQuery para copiar tablas, incluidas las tareas que crean una copia, un clon o una instantánea de una tabla estándar, un clon de tabla o una instantánea de tabla. Los límites se aplican a las tareas creadas mediante la consola de Google Cloud , la herramienta de línea de comandos bq o el método jobs.insert que especifica el campo copy en la configuración de la tarea. Los trabajos de copia se tienen en cuenta para estos límites, independientemente de si se completan correctamente o no.

Límite Predeterminado Notas
Tareas de copia por tabla de destino y día Consulta Operaciones de tabla al día.
Tareas de copia por día 100.000 tareas Tu proyecto puede ejecutar hasta 100.000 trabajos de copia al día.
Tareas de copia entre regiones por tabla de destino y día 100 tareas Tu proyecto puede ejecutar hasta 100 tareas de copia entre regiones para una tabla de destino al día.
Tareas de copia entre regiones por día 2000 tareas Tu proyecto puede ejecutar hasta 2000 trabajos de copia entre regiones al día.
Número de tablas de origen que se van a copiar 1200 tablas de origen Puedes copiar hasta 1200 tablas de origen por trabajo de copia.

Para obtener información sobre cómo ver el uso actual de los trabajos de copia, consulta Trabajos de copia: ver el uso actual de la cuota.

Los siguientes límites se aplican a la copia de conjuntos de datos:

Límite Predeterminado Notas
Número máximo de tablas en el conjunto de datos de origen 25.000 tablas Un conjunto de datos de origen puede tener hasta 25.000 tablas.
Número máximo de tablas que se pueden copiar por ejecución en un conjunto de datos de destino de la misma región 20.000 tablas Tu proyecto puede copiar un máximo de 20.000 tablas por ejecución en un conjunto de datos de destino de la misma región. Si un conjunto de datos de origen contiene más de 20.000 tablas, BigQuery Data Transfer Service programa ejecuciones secuenciales, en las que se copian hasta 20.000 tablas en cada una, hasta que se copien todas las tablas. Estas ejecuciones están separadas por un intervalo predeterminado de 24 horas, que los usuarios pueden personalizar hasta un mínimo de 12 horas.
Número máximo de tablas que se pueden copiar por ejecución en un conjunto de datos de destino de otra región 1000 tablas Tu proyecto puede copiar un máximo de 1000 tablas por ejecución en un conjunto de datos de destino de otra región. Si un conjunto de datos de origen contiene más de 1000 tablas, BigQuery Data Transfer Service programa ejecuciones secuenciales, en las que se copian hasta 1000 tablas en cada una, hasta que se hayan copiado todas las tablas. Estas ejecuciones se separan por un intervalo predeterminado de 24 horas, que los usuarios pueden personalizar hasta un mínimo de 12 horas.

Reservas

Se aplican las siguientes cuotas a las reservas:

Cuota Predeterminado Notas
Número total de espacios publicitarios en la región de la UE 5000 ranuras El número máximo de ranuras de BigQuery que puedes comprar en la multirregión de la UE mediante la consola de Google Cloud .
Ver cuotas en la Google Cloud consola
Número total de espacios publicitarios en la región de EE. UU. 10.000 ranuras El número máximo de ranuras de BigQuery que puedes comprar en la multirregión de EE. UU. mediante la consola de Google Cloud .
Ver cuotas en la Google Cloud consola
Número total de espacios publicitarios de la región us-east1 4000 ranuras El número máximo de ranuras de BigQuery que puedes comprar en la región indicada mediante la consola de Google Cloud .
Ver cuotas en la Google Cloud consola
Número total de espacios publicitarios de las siguientes regiones:
  • asia-south1
  • asia-southeast1
  • europe-west2
  • us-central1
  • us-west1
2000 ranuras El número máximo de ranuras de BigQuery que puedes comprar en cada una de las regiones indicadas mediante la consola de Google Cloud .
Ver cuotas en la Google Cloud consola
Número total de espacios publicitarios de las siguientes regiones:
  • asia-east1
  • asia-northeast1
  • asia-northeast3
  • asia-southeast2
  • australia-southeast1
  • europe-north1
  • europe-west1
  • europe-west3
  • europe-west4
  • northamerica-northeast1
  • us-east4
  • southamerica-east1
1000 ranuras El número máximo de ranuras de BigQuery que puedes comprar en cada una de las regiones indicadas mediante la consola de Google Cloud .
Ver cuotas en la Google Cloud consola
Número total de ranuras de las regiones de BigQuery Omni 100 ranuras El número máximo de ranuras de BigQuery que puedes comprar en las regiones de BigQuery Omni mediante la consola de Google Cloud .
Ver cuotas en la Google Cloud consola
Número total de espacios publicitarios para todas las demás regiones 500 ranuras El número máximo de ranuras de BigQuery que puedes comprar en cada región mediante la consola de Google Cloud .
Ver cuotas en la Google Cloud consola

Se aplican los siguientes límites a las reservas:

Límite Valor Notas
Número de proyectos de administración para reservas de slots 10 proyectos por organización Número máximo de proyectos de una organización que pueden contener una reserva o un compromiso activo de slots para una ubicación o una región concretas.
Número máximo de reservas de la edición estándar 10 reservas por proyecto Número máximo de reservas de edición estándar por proyecto de administración en una organización para una ubicación o región concretas.
Número máximo de reservas de la edición Enterprise o Enterprise Plus 200 reservas por proyecto Número máximo de reservas de la edición Enterprise o Enterprise Plus por proyecto de administración de una organización en una ubicación o región concretas.
Número máximo de espacios en una reserva asociada a una asignación de reserva con el tipo de trabajo CONTINUOUS. 500 ranuras Si quieres crear una asignación de reserva que tenga un tipo de trabajo CONTINUOUS, la reserva asociada no puede tener más de 500 espacios.

Conjuntos de datos

Se aplican los siguientes límites a los conjuntos de datos de BigQuery:

Límite Predeterminado Notas
Número máximo de conjuntos de datos Ilimitado No hay límite en el número de conjuntos de datos que puede tener un proyecto.
Número de tablas por conjunto de datos Ilimitado Cuando haces una llamada a la API, el rendimiento de la enumeración se resiente conforme te aproximas a las 50.000 tablas en un conjunto de datos. La consola de Google Cloud puede mostrar hasta 50.000 tablas por cada conjunto de datos.
Número de recursos autorizados en la lista de control de acceso de un conjunto de datos 2500 recursos Una lista de control de acceso de un conjunto de datos puede tener hasta 2500 recursos autorizados en total, incluidos vistas autorizadas, conjuntos de datos autorizados y funciones autorizadas. Si supera este límite debido a un gran número de vistas autorizadas, puede agrupar las vistas en conjuntos de datos autorizados.
Número de operaciones de actualización de conjuntos de datos por conjunto de datos cada 10 segundos 5 operaciones Tu proyecto puede realizar hasta cinco operaciones de actualización de conjuntos de datos cada 10 segundos. El límite de actualización de los conjuntos de datos incluye todas las operaciones de actualización de metadatos realizadas por los siguientes elementos:
Longitud máxima de la descripción de un conjunto de datos 16.384 caracteres Cuando añades una descripción a un conjunto de datos, el texto puede tener un máximo de 16.384 caracteres.

Tablas

Todas las tablas

Se aplican los siguientes límites a todas las tablas de BigQuery.

Límite Predeterminado Notas
Longitud máxima del nombre de una columna 300 caracteres El nombre de la columna puede tener 300 caracteres como máximo.
Longitud máxima de la descripción de una columna 1024 caracteres Cuando añades una descripción a una columna, el texto puede tener un máximo de 1024 caracteres.
Profundidad máxima de los registros anidados 15 niveles Las columnas de tipo RECORD pueden contener tipos RECORD anidados, también llamados registros secundarios. El límite máximo de profundidad de anidación es de 15 niveles. Este límite es independiente de si los registros son escalares o se basan en arrays (repetidos).
Longitud máxima de la descripción de una tabla 16.384 caracteres Cuando añades una descripción a una tabla, el texto puede tener un máximo de 16.384 caracteres.

Tablas estándares

Se aplican los siguientes límites a las tablas estándar (integradas) de BigQuery:

Límite Predeterminado Notas
Modificaciones de tablas al día 1500 modificaciones

Tu proyecto puede hacer hasta 1500 modificaciones de tablas por tabla y día, tanto si la modificación actualiza los metadatos de la tabla, añade o actualiza datos, o trunca la tabla. Este límite no se puede cambiar e incluye el total combinado de todas las tareas de carga, tareas de copia y tareas de consulta que añaden datos a una tabla de destino o la sobrescriben.

Las declaraciones de DML no se tienen en cuenta para calcular el número de modificaciones de tabla por día.

Los datos de streaming no se tienen en cuenta para calcular el número de modificaciones de tabla por día.

Frecuencia máxima de operaciones de actualización de metadatos de una tabla 5 operaciones por cada 10 segundos Tu proyecto puede realizar hasta cinco operaciones de actualización de metadatos de tablas cada 10 segundos por tabla. Este límite se aplica a todas las operaciones de actualización de metadatos de tablas realizadas por los siguientes elementos: Este límite también incluye el total combinado de todas las tareas de carga, las tareas de copia y las tareas de consulta que añaden datos a una tabla de destino o la sobrescriben, o bien que usan declaraciones DML DELETE, INSERT, MERGE, TRUNCATE TABLE o UPDATE para escribir datos en una tabla. Aunque las declaraciones de DML se tienen en cuenta para calcular este límite, no están sujetas a él si se alcanza. Las operaciones de DML tienen límites de frecuencia específicos.

Si superas este límite, recibirás un mensaje de error como Exceeded rate limits: too many table update operations for this table. Este error es transitorio. Puedes volver a intentar la acción después de un tiempo de espera exponencial.

Para identificar las operaciones que se tienen en cuenta para este límite, puedes inspeccionar tus registros. Consulta el artículo Solucionar errores de cuota para obtener información sobre cómo diagnosticar y resolver este error.

Número máximo de columnas por tabla 10.000 columnas Cada tabla, resultado de consulta o definición de vista puede tener hasta 10.000 columnas. Esto incluye columnas anidadas y repetidas.

Tablas externas

En las tablas de BigQuery con datos almacenados en Cloud Storage en formato Parquet, ORC, Avro, CSV o JSON, se aplican los siguientes límites:

Límite Predeterminado Notas
Número máximo de URIs de origen por tabla externa 10.000 URIs Cada tabla externa puede tener hasta 10.000 URIs de origen.
Número máximo de archivos por tabla externa 10.000.000 de archivos Una tabla externa puede tener hasta 10 millones de archivos, incluidos todos los archivos que coincidan con todas las URIs comodín.
Tamaño máximo de los datos almacenados en Cloud Storage por tabla externa 600 TB Una tabla externa puede tener hasta 600 terabytes en todos los archivos de entrada. Este límite se aplica a los tamaños de los archivos almacenados en Cloud Storage, que no coinciden con los tamaños usados en la fórmula de precios de consultas. En las tablas con particiones externas, el límite se aplica tras el recorte de particiones.
Número máximo de archivos del segmento de Cloud Storage de origen Aproximadamente 60.000.000 de archivos Una tabla externa puede hacer referencia a un segmento de Cloud Storage que contenga hasta aproximadamente 60.000.000 de archivos. En el caso de las tablas con particiones externas, este límite se aplica antes del recorte de particiones.

Tablas con particiones

Se aplican los siguientes límites a las tablas particionadas de BigQuery.

Los límites de partición se aplican al total combinado de todas las tareas de carga, tareas de copia y tareas de consulta que añaden datos a una partición de destino o la sobrescriben.

Una sola tarea puede afectar a varias particiones. Por ejemplo, las tareas de consulta y de carga pueden escribir en varias particiones.

BigQuery calcula cuánta cuota consume una tarea basándose en el número de particiones a las que afecta. Las inserciones de transmisión no influyen en este límite.

Para obtener información sobre las estrategias que puedes seguir para no superar los límites de las tablas particionadas, consulta el artículo Solucionar errores de cuota.

Límite Predeterminado Notas
Número de particiones por tabla con particiones 10.000 particiones Cada tabla particionada puede tener hasta 10.000 particiones. Si superas este límite, te recomendamos que uses el agrupamiento en clústeres además de las particiones o en lugar de ellas.
Número de particiones modificadas por una sola tarea 4000 particiones Cada operación de tarea (de consulta o de carga) puede afectar a un máximo de 4000 particiones. BigQuery rechaza cualquier tarea de carga o consulta que intente modificar más de 4000 particiones.
Número de modificaciones de particiones durante la hora de ingestión por tabla con particiones al día 11.000 modificaciones

Tu proyecto puede hacer hasta 11.000 modificaciones de particiones al día.

Una modificación de partición se produce cuando añades, actualizas, eliminas o truncas datos en una tabla con particiones. Se contabiliza una modificación de partición por cada tipo de modificación de datos que hagas. Por ejemplo, eliminar una fila se contabilizaría como una modificación de partición, al igual que eliminar una partición completa. Si eliminas una fila de una partición y, a continuación, la insertas en otra, se contabilizarán dos modificaciones de partición.

Las modificaciones que se realizan mediante instrucciones DML o la API de streaming no se tienen en cuenta para calcular el número de modificaciones de partición por día.

Número de modificaciones de partición por tabla con particiones por columnas al día 30.000 modificaciones

Tu proyecto puede hacer hasta 30.000 modificaciones de partición al día en una tabla con particiones por columnas.

Las instrucciones de DML no se tienen en cuenta para calcular el número de modificaciones de partición por día.

Los datos de streaming no se tienen en cuenta para calcular el número de modificaciones de partición por día.

Frecuencia máxima de operaciones de actualización de metadatos de una tabla particionada 50 modificaciones por cada 10 segundos Tu proyecto puede hacer hasta 50 modificaciones por tabla particionada cada 10 segundos. Este límite se aplica a todas las operaciones de actualización de metadatos de tablas particionadas, realizadas por lo siguiente: Este límite también incluye el total combinado de todas las tareas de carga, las tareas de copia y las tareas de consulta que añaden datos a una tabla de destino o la sobrescriben, o bien que usan declaraciones DML DELETE, INSERT, MERGE, TRUNCATE TABLE o UPDATE para escribir datos en una tabla.

Si superas este límite, recibirás un mensaje de error como Exceeded rate limits: too many partitioned table update operations for this table. Este error es transitorio. Puedes volver a intentar la acción después de un tiempo de espera exponencial.

Para identificar las operaciones que se tienen en cuenta para este límite, puedes inspeccionar tus registros.

Número de intervalos posibles para la creación de particiones por intervalo 10.000 intervalos Una tabla particionada por intervalo puede tener hasta 10.000 intervalos posibles. Este límite se aplica a la especificación de partición cuando creas la tabla. Una vez que hayas creado la tabla, el límite también se aplicará al número real de particiones.

Clones de tablas

Se aplican los siguientes límites a los clones de tablas de BigQuery:

Límite Predeterminado Notas
Número máximo de clones y de instantáneas en una cadena 3 clones o capturas de tabla La combinación de clones e instantáneas está limitada a una profundidad de 3. Cuando clonas o creas una instantánea de una tabla base, solo puedes clonar o crear una instantánea del resultado dos veces más. Si intentas clonar o crear una instantánea del resultado una tercera vez, se producirá un error. Por ejemplo, puedes crear el clon A de la tabla base, crear la captura B del clon A y crear el clon C de la captura B. Para hacer más duplicados del clon de tercer nivel o de la copia de seguridad, usa una operación de copia.
Número máximo de clones y de instantáneas de una tabla base 1000 clones o capturas de tablas No puedes tener más de 1000 clones y copias de un momento dado de una tabla base. Por ejemplo, si tienes 600 instantáneas y 400 clones, alcanzarás el límite.

Capturas de tablas

Se aplican los siguientes límites a las instantáneas de tablas de BigQuery:

Límite Predeterminado Notas
Número máximo de trabajos de creación de capturas de tablas simultáneos 100 tareas Tu proyecto puede ejecutar hasta 100 tareas de creación de instantáneas de tablas simultáneas.
Número máximo de trabajos de creación de instantáneas de tablas al día 50.000 tareas Tu proyecto puede ejecutar hasta 50.000 tareas de creación de instantáneas de tablas al día.
Número máximo de tareas de creación de instantáneas de tablas por tabla y día 50 tareas Tu proyecto puede ejecutar hasta 50 tareas de creación de instantáneas de tablas por tabla y día.
Número máximo de actualizaciones de metadatos por captura de tabla cada 10 segundos. 5 actualizaciones Tu proyecto puede actualizar los metadatos de una instantánea de una tabla hasta cinco veces cada 10 segundos.
Número máximo de clones y de instantáneas en una cadena 3 clones o capturas de tabla La combinación de clones e instantáneas está limitada a una profundidad de 3. Cuando clonas o creas una instantánea de una tabla base, solo puedes clonar o crear una instantánea del resultado dos veces más. Si intentas clonar o crear una instantánea del resultado una tercera vez, se producirá un error. Por ejemplo, puedes crear el clon A de la tabla base, crear la captura B del clon A y crear el clon C de la captura B. Para hacer más duplicados del clon de tercer nivel o de la copia de seguridad, usa una operación de copia.
Número máximo de clones y de instantáneas de una tabla base 1000 clones o capturas de tablas No puedes tener más de 1000 clones y copias de un momento dado de una tabla base. Por ejemplo, si tienes 600 instantáneas y 400 clones, alcanzarás el límite.

Vistas

Se aplican los siguientes límites y cuotas a las vistas y las vistas materializadas.

Vistas lógicas

Se aplican los siguientes límites a las vistas estándar de BigQuery:

Límite Predeterminado Notas
Número máximo de niveles de vista anidados 16 niveles BigQuery admite hasta 16 niveles de vistas anidadas. Puedes crear vistas hasta este límite, pero las consultas están limitadas a 15 niveles. Si se supera el límite, BigQuery devuelve un error INVALID_INPUT.
Longitud máxima de una consulta de GoogleSQL utilizada para definir una vista 256.000 caracteres Una sola consulta de GoogleSQL que define una vista puede tener hasta 256.000 caracteres. Este límite se aplica a una sola consulta y no incluye la longitud de las vistas a las que hace referencia la consulta.
Número máximo de vistas autorizadas por conjunto de datos Consulta Conjuntos de datos.
Longitud máxima de la descripción de una vista 16.384 caracteres Cuando añades una descripción a una vista, el texto puede tener un máximo de 16.384 caracteres.

Vistas materializadas

Se aplican los siguientes límites a las vistas materializadas de BigQuery:

Límite Predeterminado Notas
Referencias de tablas base (mismo proyecto) 100 vistas materializadas Se puede hacer referencia a cada tabla base desde un máximo de 100 vistas materializadas del mismo proyecto.
Referencias de tabla base (toda la organización) 500 vistas materializadas Se puede hacer referencia a cada tabla base desde un máximo de 500 vistas materializadas de toda la organización.
Número máximo de vistas autorizadas por conjunto de datos Consulta Conjuntos de datos.
Longitud máxima de la descripción de una vista materializada 16.384 caracteres Cuando añades una descripción a una vista materializada, el texto puede tener un máximo de 16.384 caracteres.
Límite de tiempo de ejecución de la tarea de actualización de la vista materializada 12 horas Un trabajo de actualización de una vista materializada puede ejecutarse durante un máximo de 12 horas antes de fallar.

Índices de búsqueda

Se aplican los siguientes límites a los índices de búsqueda de BigQuery:

Límite Predeterminado Notas
Número de instrucciones DDL CREATE INDEX por proyecto, región y día 500 operaciones Tu proyecto puede emitir hasta 500 operaciones de DDL de CREATE INDEX al día en una región.
Número de instrucciones DDL de índice de búsqueda por tabla y día 20 operaciones Tu proyecto puede emitir hasta 20 operaciones de CREATE INDEX o DROP INDEX DDL por tabla y día.
Tamaño total máximo de los datos de tabla por organización permitido para la creación de índices de búsqueda que no se ejecutan en una reserva 100 TB en multirregiones y 20 TB en el resto de las regiones Puedes crear un índice de búsqueda para una tabla si el tamaño total de las tablas con índices de tu organización no supera el límite de tu región: 100 TB en las multirregiones US y EU, y 20 TB en el resto de las regiones. Si tus trabajos de gestión de índices se ejecutan en tu propia reserva, este límite no se aplica.
Número de columnas indexadas con granularidad de columna por tabla 63 columnas por tabla Una tabla puede tener hasta 63 columnas con el valor index_granularity definido como COLUMN. Las columnas indexadas con una granularidad de COLUMN al definir la opción default_index_column_granularity se tienen en cuenta para este límite. No hay límite en el número de columnas que se indexan con una granularidad de GLOBAL. Para obtener más información, consulta Índice con granularidad de columna.

Índices vectoriales

Se aplican los siguientes límites a los índices vectoriales de BigQuery:

Límite Predeterminado Notas
Número mínimo de filas de la tabla base 5000 filas Una tabla debe tener al menos 5000 filas para crear un índice vectorial.
Número máximo de filas de la tabla base para el tipo de índice IVF 10.000.000.000 de filas Una tabla puede tener como máximo 10.000.000.000 filas para crear un índice de vectores IVF.
Número máximo de filas de la tabla base para el tipo de índice TREE_AH 200.000.000 de filas Una tabla puede tener como máximo 200.000.000 de filas para crear un índice de vectores TREE_AH.
Número máximo de filas de la tabla base para el tipo de índice particionado TREE_AH 10.000.000.000 filas en total

200.000.000 filas por partición
Una tabla puede tener un máximo de 10.000.000.000 filas, y cada partición puede tener un máximo de 200.000.000 filas para crear un TREE_AH índice vectorial particionado.
Tamaño máximo de la matriz en la columna indexada 1600 elementos La columna que se va a indexar puede tener un máximo de 1600 elementos en la matriz.
Tamaño mínimo de la tabla para rellenar el índice vectorial 10 MB Si crea un índice vectorial en una tabla de menos de 10 MB, el índice no se rellena. Del mismo modo, si elimina datos de una tabla indexada por vector de forma que el tamaño de la tabla sea inferior a 10 MB, el índice de vector se inhabilitará temporalmente. Esto ocurre independientemente de si usas tu propia reserva para tus trabajos de gestión de índices. Cuando el tamaño de una tabla indexada por vector vuelva a superar los 10 MB, su índice se rellenará automáticamente.
Número de instrucciones DDL CREATE VECTOR INDEX por proyecto, región y día 500 operaciones En cada proyecto, puedes emitir hasta 500 operaciones CREATE VECTOR INDEX al día por región.
Número de instrucciones DDL de índice vectorial por tabla y día 10 operaciones Puedes realizar hasta 10 operaciones CREATE VECTOR INDEX o DROP VECTOR INDEX por tabla al día.
Tamaño total máximo de los datos de tabla por organización permitido para la creación de índices vectoriales que no se ejecutan en una reserva 6 TB Puedes crear un índice vectorial para una tabla si el tamaño total de las tablas con índices de tu organización es inferior a 6 TB. Si tus trabajos de gestión de índices se ejecutan en tu propia reserva, este límite no se aplica.

Rutinas

Se aplican los siguientes límites y cuotas a las rutinas.

Funciones definidas por el usuario

Los siguientes límites se aplican a las funciones definidas por el usuario (UDFs) temporales y persistentes en las consultas de GoogleSQL.

Límite Predeterminado Notas
Salida máxima por fila 5 MB La cantidad máxima de datos que puede generar tu función definida por el usuario en JavaScript al procesar una sola fila es de aproximadamente 5 MB.
Número máximo de consultas de SQL antiguo simultáneas con funciones definidas por el usuario de JavaScript 6 consultas Tu proyecto puede tener hasta seis consultas de SQL antiguo simultáneas que contengan funciones definidas por el usuario en JavaScript. Este límite incluye tanto consultas interactivas como por lotes. Este límite no se aplica a las consultas de GoogleSQL.
Número máximo de recursos de funciones definidas por el usuario en JavaScript por consulta 50 recursos Una tarea de consulta puede tener hasta 50 recursos de funciones definidas por el usuario en JavaScript, como blobs de código insertado o archivos externos.
Tamaño máximo de blob de código insertado 32 kB El tamaño de un blob de código insertado en una función definida por el usuario puede ser de hasta 32 KB.
Tamaño máximo de cada recurso de código externo 1 MB El tamaño máximo de cada recurso de código de JavaScript es de 1 MB.

Se aplican los siguientes límites a las funciones definidas por el usuario persistentes:

Límite Predeterminado Notas
Longitud máxima del nombre de una UDF 256 caracteres El nombre de una función definida por el usuario puede tener hasta 256 caracteres.
Número máximo de argumentos 256 argumentos Una función definida por el usuario puede tener hasta 256 argumentos.
Longitud máxima del nombre de un argumento 128 caracteres El nombre de un argumento de una función definida por el usuario puede tener hasta 128 caracteres.
Profundidad máxima de una cadena de referencia de una función definida por el usuario 16 referencias Una cadena de referencias de UDF puede tener hasta 16 referencias.
Profundidad máxima de un argumento o resultado de tipo STRUCT 15 niveles Un argumento o resultado de una función definida por el usuario de tipo STRUCT puede tener hasta 15 niveles de profundidad.
Número máximo de campos en argumentos o resultados de tipo STRUCT por función definida por el usuario 1024 campos Una función definida por el usuario puede tener hasta 1024 campos en argumentos de tipo STRUCT y en la salida.
Número máximo de bibliotecas de JavaScript en una instrucción CREATE FUNCTION 50 bibliotecas Una instrucción CREATE FUNCTION puede tener hasta 50 bibliotecas de JavaScript.
Longitud máxima de las rutas de la biblioteca de JavaScript incluidas 5000 caracteres La ruta de una biblioteca de JavaScript incluida en una FDU puede tener hasta 5000 caracteres.
Velocidad de actualización máxima por función definida por el usuario cada 10 segundos 5 actualizaciones Tu proyecto puede actualizar una función definida por el usuario hasta cinco veces cada 10 segundos.
Número máximo de FDU autorizadas por conjunto de datos Consulta Conjuntos de datos.

Funciones remotas

Los siguientes límites se aplican a las funciones remotas en BigQuery.

Límite Predeterminado Notas
Número máximo de consultas simultáneas que contienen funciones remotas 10 consultas Puedes ejecutar hasta diez consultas simultáneas con funciones remotas por proyecto.
Tamaño máximo de entrada 5 MB El tamaño total máximo de todos los argumentos de entrada de una sola fila es de 5 MB.
Límite de tamaño de la respuesta HTTP (Cloud Run Functions de 1.ª gen.) 10 MB El cuerpo de la respuesta HTTP de tu función de Cloud Run de primera generación puede tener un tamaño de hasta 10 MB. Si se supera este valor, se producirán errores en las consultas.
Límite de tamaño de la respuesta HTTP (funciones de Cloud Run de 2.ª gen. o Cloud Run) 15 MB El cuerpo de la respuesta HTTP de tu función de Cloud Run de segunda generación o de Cloud Run puede tener un tamaño de hasta 15 MB. Si se supera este valor, se producirán errores en las consultas.
Límite de tiempo máximo de invocación HTTP (funciones de Cloud Run de 1.ª gen.) 9 minutos Puedes definir tu propio límite de tiempo para la función de Cloud Run de primera generación en una invocación HTTP individual, pero el límite máximo es de 9 minutos. Si superas el límite de tiempo establecido para tu función de Cloud Run de 1.ª gen., pueden producirse errores de invocación HTTP y errores de consulta.
Límite de tiempo de invocación HTTP (funciones de Cloud Run de 2.ª gen. o Cloud Run) 20 minutos El límite de tiempo de una invocación HTTP individual a tu función de Cloud Run de segunda generación o Cloud Run. Si se supera este valor, se pueden producir errores de invocación HTTP y errores de consulta.
Número máximo de reintentos de invocación HTTP 20 Número máximo de intentos de reintento de una invocación HTTP individual a tu función de Cloud Run de 1.ª o 2.ª generación, o a Cloud Run. Si se supera este valor, se pueden producir errores de invocación HTTP y errores de consulta.

Funciones de tabla

Se aplican los siguientes límites a las funciones de tabla de BigQuery:

Límite Predeterminado Notas
Longitud máxima del nombre de una función de tabla 256 caracteres El nombre de una función de tabla puede tener hasta 256 caracteres.
Longitud máxima del nombre de un argumento 128 caracteres El nombre de un argumento de una función de tabla puede tener hasta 128 caracteres.
Número máximo de argumentos 256 argumentos Una función de tabla puede tener hasta 256 argumentos.
Profundidad máxima de la cadena de referencia de una función de tabla 16 referencias Una cadena de referencia de función de tabla puede tener hasta 16 referencias.
Profundidad máxima de un argumento o resultado del tipo STRUCT 15 niveles Un argumento STRUCT de una función de tabla puede tener hasta 15 niveles de profundidad. Del mismo modo, un registro STRUCT en la salida de una función de tabla puede tener hasta 15 niveles de profundidad.
Número máximo de campos en un argumento o una tabla de retorno del tipo STRUCT por función de tabla 1024 campos Un argumento STRUCT de una función de tabla puede tener hasta 1024 campos. Del mismo modo, un registro STRUCT en la salida de una función de tabla puede tener hasta 1024 campos.
Número máximo de columnas de la tabla devuelta 1024 columnas Una tabla devuelta por una función de tabla puede tener hasta 1024 columnas.
Longitud máxima de los nombres de las columnas de la tabla de resultados 128 caracteres Los nombres de las columnas de las tablas devueltas pueden tener hasta 128 caracteres.
Número máximo de actualizaciones por función de tabla cada 10 segundos 5 actualizaciones Tu proyecto puede actualizar una función de tabla hasta cinco veces cada 10 segundos.

Procedimientos almacenados para Apache Spark

Se aplican los siguientes límites a los procedimientos almacenados de BigQuery para Apache Spark:

Límite Predeterminado Notas
Número máximo de consultas de procedimientos almacenados simultáneas 50 Puede ejecutar hasta 50 consultas de procedimientos almacenados simultáneas por proyecto.
Número máximo de CPUs en uso 12.000 Puedes usar hasta 12.000 CPUs por proyecto. Las consultas que ya se han procesado no consumen este límite.

Puedes usar hasta 2400 CPUs por ubicación y proyecto, excepto en las siguientes ubicaciones:

  • asia-south2
  • australia-southeast2
  • europe-central2
  • europe-west8
  • northamerica-northeast2
  • southamerica-west1

En estas ubicaciones, puedes usar hasta 500 CPU por ubicación y proyecto.

Si ejecutas consultas simultáneas en una ubicación multirregional y en una ubicación de una sola región que se encuentre en la misma zona geográfica, es posible que tus consultas consuman la misma cuota de CPU simultánea.

Tamaño total máximo de los discos persistentes estándar en uso 204,8 TB

Puedes usar hasta 204,8 TB de discos persistentes estándar por ubicación y proyecto. Las consultas que ya se han procesado no consumen este límite.

Si ejecutas consultas simultáneas en una ubicación multirregional y en una ubicación de una sola región que se encuentre en la misma zona geográfica, es posible que tus consultas consuman la misma cuota de disco persistente estándar.

Notebooks

Se aplican todas las cuotas y los límites de Dataform y las cuotas y los límites de Colab Enterprise a las notebooks de BigQuery. También se aplican los siguientes límites:

Límite Predeterminado Notas
Tamaño máximo del cuaderno 20 MB

El tamaño de un cuaderno es la suma de su contenido, sus metadatos y la sobrecarga de codificación.

Para ver el tamaño del contenido de un cuaderno, despliega el encabezado del cuaderno, haz clic en Ver y, a continuación, en Información del cuaderno.

Número máximo de solicitudes por segundo a Dataform 100 Los cuadernos se crean y gestionan a través de Dataform. Cualquier acción que cree o modifique un cuaderno se contabiliza en esta cuota. Esta cuota se comparte con las consultas guardadas. Por ejemplo, si haces 50 cambios en cuadernos y 50 cambios en consultas guardadas en 1 segundo, alcanzarás la cuota.

Consultas guardadas

Se aplican todas las cuotas y los límites de Dataform a las consultas guardadas. También se aplican los siguientes límites:

Límite Predeterminado Notas
Tamaño máximo de consulta guardada 10 MB
Número máximo de solicitudes por segundo a Dataform 100 Las consultas guardadas se crean y gestionan a través de Dataform. Cualquier acción que cree o modifique una consulta guardada se contabiliza en esta cuota. Esta cuota se comparte con los cuadernos. Por ejemplo, si haces 50 cambios en cuadernos y 50 cambios en consultas guardadas en 1 segundo, alcanzarás la cuota.

Lenguaje de manipulación de datos

Se aplican los siguientes límites a las instrucciones del lenguaje de manipulación de datos (DML) de BigQuery:

Límite Predeterminado Notas
Instrucciones DML por día Ilimitado El número de instrucciones DML que puede ejecutar tu proyecto al día es ilimitado.

Las instrucciones DML no se tienen en cuenta para calcular el número de modificaciones de tabla por día ni el número de modificaciones de tabla con particiones por día en las tablas con particiones.

Las instrucciones de DML tienen las siguientes limitaciones que debes tener en cuenta.
Declaraciones simultáneas de INSERTDML por tabla y día 1500 extractos Las primeras 1500 instrucciones INSERT se ejecutan inmediatamente después de enviarse. Una vez alcanzado este límite, la simultaneidad de las instrucciones INSERT que escriben en una tabla se limita a 10. Se añaden instrucciones INSERT adicionales a una cola PENDING. Se pueden poner en cola hasta 100 instrucciones INSERT en una tabla en cualquier momento. Cuando se completa una instrucción INSERT, la siguiente instrucción INSERT se elimina de la cola y se ejecuta.

Si necesitas ejecutar instrucciones INSERT de lenguaje de manipulación de datos (DML) con más frecuencia, te recomendamos que envíes datos en streaming a tu tabla mediante la API Storage Write.
Declaraciones de DML mutadoras simultáneas por tabla 2 extractos BigQuery ejecuta hasta dos instrucciones DML de mutación simultáneas (UPDATE, DELETE y MERGE) por tabla. Se ponen en cola declaraciones de DML mutadoras adicionales para una tabla.
Declaraciones de DML mutadoras en cola por tabla 20 extractos Una tabla puede tener hasta 20 instrucciones de DML mutables en la cola esperando a ejecutarse. Si envía instrucciones de DML mutadoras adicionales para la tabla, esas instrucciones fallarán.
Tiempo máximo en la cola de una instrucción DML 7 horas Una instrucción DML interactiva de prioridad puede esperar en la cola hasta siete horas. Si la instrucción no se ha ejecutado después de siete horas, falla.
Frecuencia máxima de instrucciones DML para cada tabla 25 instrucciones cada 10 segundos Tu proyecto puede ejecutar hasta 25 instrucciones DML cada 10 segundos por tabla. Tanto las declaraciones de DML de INSERT como las de mutación contribuyen a este límite.

Para obtener más información sobre las instrucciones de DML mutadoras, consulta INSERT Concurrencia de DML y UPDATE, DELETE, MERGE Concurrencia de DML.

Consultas con varias instrucciones

Se aplican los siguientes límites a las consultas con varias instrucciones en BigQuery.

Límite Predeterminado Notas
Número máximo de consultas simultáneas con varias instrucciones 1000 consultas con varias instrucciones Tu proyecto puede ejecutar hasta 1000 consultas con varias instrucciones simultáneas.
Límite de tiempo acumulado 24 horas El límite de tiempo acumulativo de una consulta de varias instrucciones es de 24 horas.
Límite de tiempo de la declaración 6 horas El límite de tiempo de una instrucción individual en una consulta de varias instrucciones es de 6 horas.

CTEs recursivas en consultas

Los siguientes límites se aplican a las expresiones de tabla comunes (CTEs) recursivas en BigQuery.

Límite Predeterminado Notas
Límite de iteraciones 500 iteraciones La CTE recursiva puede ejecutar este número de iteraciones. Si se supera este límite, se produce un error. Para evitar los límites de iteración, consulta Solucionar errores de límite de iteración.

Seguridad a nivel de fila

Se aplican los siguientes límites a las políticas de acceso a nivel de fila de BigQuery:

Límite Predeterminado Notas
Número máximo de políticas de acceso a filas por tabla 400 políticas Una tabla puede tener hasta 400 políticas de acceso a las filas.
Número máximo de políticas de acceso a filas por consulta 6000 políticas Una consulta puede acceder a un total de 6000 políticas de acceso a las filas.
Número máximo de instrucciones DDL de CREATE o DROP por política cada 10 segundos 5 extractos Tu proyecto puede hacer hasta cinco declaraciones CREATE o DROP por recurso de política de acceso a las filas cada 10 segundos.
DROP ALL ROW ACCESS POLICIES instrucciones por tabla cada 10 segundos 5 extractos Tu proyecto puede hacer hasta cinco DROP ALL ROW ACCESS POLICIES por tabla cada 10 segundos.

Políticas de datos

Se aplican los siguientes límites al enmascaramiento dinámico de datos a nivel de columna:

Límite Predeterminado Notas
Número máximo de políticas de datos por etiqueta de política. 8 políticas por etiqueta de política Hasta ocho políticas de datos por etiqueta de política. Una de estas políticas se puede usar para los controles de acceso a nivel de columna. No se admiten expresiones de enmascaramiento duplicadas.

BigQuery ML

Se aplican los siguientes límites a BigQuery ML.

Tareas de consulta

Todas las cuotas y los límites de las tareas de consulta se aplican a las tareas de consulta de GoogleSQL que utilizan declaraciones y funciones de BigQuery ML.

CREATE MODEL extractos

Se aplican los siguientes límites a los trabajos de CREATE MODEL:

Límite Predeterminado Notas
CREATE MODEL consultas de instrucciones por proyecto cada 48 horas 20.000 consultas de instrucciones Algunos modelos se entrenan utilizando servicios de Vertex AI, que tienen su propia gestión de recursos y cuotas.
Límite de tiempo de ejecución 24 o 48 horas CREATE MODEL El tiempo de espera predeterminado de las tareas es de 24 horas, excepto en el caso de las series temporales, AutoML y las tareas de ajuste de hiperparámetros, cuyo tiempo de espera es de 48 horas.

Funciones de IA generativa

Los siguientes límites se aplican a las funciones que usan modelos de lenguaje extensos (LLMs) de Vertex AI.

Límites de solicitudes por minuto

Se aplican los siguientes límites a los modelos de Vertex AI que usan un límite de solicitudes por minuto:

Función Modelo Región Solicitudes por minuto Filas por trabajo Número de tareas que se ejecutan simultáneamente
ML.GENERATE_TEXT

AI.GENERATE_TABLE

AI.GENERATE

AI.GENERATE_BOOL

AI.GENERATE_DOUBLE

AI.GENERATE_INT
gemini-2.0-flash-lite-001 US y EU multirregión

Regiones únicas, como se indica en gemini-2.0-flash-lite-001 en Ubicaciones de los endpoints de los modelos de Google
No se ha definido ninguna cuota. Cuota determinada por la cuota compartida dinámica (DSQ)1 y la capacidad de procesamiento reservada2 No aplicable para el rendimiento aprovisionado

10.500.000 para DSQ, en una llamada con una media de 500 tokens de entrada y 50 tokens de salida
5
gemini-2.0-flash-001 US y EU multirregión

Regiones únicas, como se indica en gemini-2.0-flash-001 en Ubicaciones de los endpoints de los modelos de Google
No disponible para el rendimiento aprovisionado

10.200.000 para DSQ, en una llamada con una media de 500 tokens de entrada y 50 tokens de salida
5
gemini-2.5-flash US y EU multirregión

Regiones únicas, como se indica en gemini-2.5-flash en Ubicaciones de los endpoints de los modelos de Google
No aplicable para el rendimiento aprovisionado

9.300.000 para DSQ, en una llamada con una media de 500 tokens de entrada y 50 tokens de salida
5
gemini-2.5-pro US y EU multirregión

Regiones únicas, como se indica en gemini-2.5-pro en Ubicaciones de los endpoints de los modelos de Google
No aplicable para el rendimiento aprovisionado

7.600.000 para DSQ, en una llamada con una media de 500 tokens de entrada y 50 tokens de salida
5
ML.GENERATE_TEXT Anthropic Claude Consulta las cuotas por modelo y región. Consulta las cuotas por modelo y región. El valor de solicitudes por minuto * 60 * 6 5
Llama Consulta la disponibilidad y las cuotas de los modelos Llama por región. Consulta la disponibilidad y las cuotas de los modelos Llama por región. 5
Mistral AI Consulta la disponibilidad y las cuotas de las regiones de los modelos de Mistral AI. Consulta la disponibilidad y las cuotas de las regiones de los modelos de Mistral AI. 5
ML.GENERATE_EMBEDDING text-embedding

text-multilingual-embedding
Todas las zonas que admiten modelos remotos 15003,4 80.000.000 por una llamada con una media de 50 tokens en cada fila de entrada

14.000.000 por una llamada con una media de 600 tokens en cada fila de entrada
5
multimodalembedding Regiones únicas europeas admitidas 1203 14.000 5
Regiones distintas de las regiones únicas europeas admitidas 6003 25.000 5

1 Cuando usas DSQ, no hay límites de cuota predefinidos para tu uso. En su lugar, DSQ proporciona acceso a un gran grupo compartido de recursos, que se asignan dinámicamente en función de la disponibilidad de recursos en tiempo real y de la demanda del cliente para el modelo en cuestión. Cuando hay más clientes activos, cada cliente obtiene menos rendimiento. Del mismo modo, cuando hay menos clientes activos, cada cliente puede obtener un mayor rendimiento.

2 El rendimiento aprovisionado es una suscripción de coste y duración fijos que está disponible en varios periodos. El rendimiento aprovisionado te permite reservar rendimiento para los modelos de IA generativa compatibles en Vertex AI.

3 Para aumentar la cuota, solicita un ajuste de cuota de QPM en Vertex AI. Espera 30 minutos para que se propague el valor de cuota aumentado.

4 Puedes aumentar la cuota de los modelos text-embedding y text-multilingual-embedding de Vertex AI a 10.000 RPM sin necesidad de obtener aprobación manual. Esto da como resultado un aumento del rendimiento de 500.000.000 de filas por trabajo o más, en función de una llamada con una media de 50 tokens en cada fila de entrada.

Para obtener más información sobre la cuota de los LLMs de Vertex AI, consulta Límites de cuota de la IA generativa en Vertex AI.

Límites de tokens por minuto

Los siguientes límites se aplican a los modelos de Vertex AI que usan un límite de tokens por minuto:

Función Tokens por minuto Filas por trabajo Número de trabajos que se ejecutan simultáneamente
ML.GENERATE_EMBEDDING cuando se usa un modelo remoto en lugar de un modelo gemini-embedding-001 10.000.000 12.000.000, para una llamada con una media de 300 tokens por fila 5

Funciones de servicio de Cloud AI

Se aplican los siguientes límites a las funciones que usan servicios de IA de Google Cloud:

Función Solicitudes por minuto Filas por trabajo Número de trabajos que se ejecutan simultáneamente
ML.PROCESS_DOCUMENT con documentos de una media de cincuenta páginas 600 100.000 (basado en una media de 50 páginas por documento de entrada) 5
ML.TRANSCRIBE 200 10.000 (basado en una duración media de 1 minuto por cada archivo de audio de entrada) 5
ML.ANNOTATE_IMAGE 1800 648.000 5
ML.TRANSLATE 6000 2.160.000 5
ML.UNDERSTAND_TEXT 600 21.600 5

Para obtener más información sobre las cuotas de las APIs de los servicios de IA de Cloud, consulta los siguientes documentos:

Definiciones de cuotas de funciones

En la siguiente lista se describen las cuotas que se aplican a las funciones de IA generativa y del servicio Cloud AI:

  • Las funciones que llaman a un modelo de Vertex AI usan una cuota de Vertex AI, que son las consultas por minuto (QPM). En este contexto, las consultas son llamadas de solicitud de la función a la API del modelo de Vertex AI. La cuota de QPM se aplica a un modelo base y a todas las versiones, identificadores y versiones ajustadas de ese modelo. Para obtener más información sobre las cuotas de modelos de Vertex AI, consulta Límites de cuota de la IA generativa en Vertex AI.
  • Las funciones que llaman a un servicio de IA de Cloud usan las cuotas de solicitudes del servicio de destino. Consulta la referencia de cuota del servicio de IA de Cloud en cuestión para obtener más información.
  • BigQuery ML usa las siguientes cuotas:

    • Solicitudes por minuto: Esta cuota es el límite del número de llamadas de solicitud por minuto que pueden hacer las funciones a la API del modelo de Vertex AI o del servicio de IA de Cloud. Este límite se aplica a cada proyecto.

      Las llamadas a los modelos de Gemini de Vertex AI no tienen límites de cuota predefinidos en tu uso, ya que los modelos de Gemini usan la cuota compartida dinámica (DSQ). DSQ proporciona acceso a un gran grupo compartido de recursos, que se asignan dinámicamente en función de la disponibilidad de recursos en tiempo real y de la demanda de los clientes para el modelo en cuestión.

    • Tokens por minuto. Esta cuota es el límite del número de tokens por minuto que las funciones pueden enviar a la API del modelo de Vertex AI. Este límite se aplica a cada proyecto.

      En el caso de las funciones que llaman a un modelo fundacional de Vertex AI, el número de tokens por minuto varía en función del endpoint, la versión y la región del modelo de Vertex AI, así como de la reputación de tu proyecto. Esta cuota es conceptualmente la misma que la cuota de QPM que usa Vertex AI.

    • Filas por trabajo. Esta cuota es el límite del número de filas permitidas para cada trabajo de consulta.Representa el número teórico más alto de filas que el sistema puede gestionar en un periodo de 6 horas. El número real de filas procesadas depende de muchos factores, como el tamaño de la solicitud de entrada al modelo, el tamaño de las respuestas de salida del modelo y la disponibilidad de la cuota compartida dinámica. En los siguientes ejemplos se muestran algunas situaciones habituales:

      • En el caso del endpoint gemini-2.0-flash-lite-001, el número de filas que puede procesar la función ML.GENERATE_TEXT depende del número de tokens de entrada y de salida. El servicio puede procesar aproximadamente 7,6 millones de filas de llamadas que tengan un recuento medio de tokens de entrada de 2000 y un recuento máximo de tokens de salida de 50. Este número se reduce a aproximadamente 1 millón de filas si el recuento medio de tokens de entrada es de 10.000 y el recuento máximo de tokens de salida es de 3000.

        Del mismo modo, el endpoint gemini-2.0-flash-001 puede procesar 4,4 millones de filas en llamadas que tengan un número medio de tokens de entrada de 2000 y un número máximo de tokens de salida de 50, pero solo puede procesar 1 millón de filas en llamadas que tengan 10.000 tokens de entrada y 3000 tokens de salida.

      • La función ML.PROCESS_DOCUMENT puede procesar más filas por trabajo en documentos cortos que en documentos largos.

      • La función ML.TRANSCRIBE puede procesar más filas por trabajo en el caso de los clips de audio cortos que en el de los largos.

    • Número de trabajos que se ejecutan simultáneamente. Esta cuota es el límite por proyecto del número de consultas de SQL que se pueden ejecutar al mismo tiempo para la función en cuestión.

En los siguientes ejemplos se muestra cómo interpretar las limitaciones de cuota en situaciones habituales:

  • Tengo una cuota de 1000 consultas por minuto en Vertex AI, por lo que una consulta con 100.000 filas debería tardar unos 100 minutos. ¿Por qué se está ejecutando el trabajo durante más tiempo?

    Los tiempos de ejecución de los trabajos pueden variar incluso con los mismos datos de entrada. En Vertex AI, las llamadas a procedimientos remotos (RPCs) tienen diferentes prioridades para evitar que se agote la cuota. Cuando no hay suficiente cuota, las llamadas a procedimientos remotos con prioridades más bajas esperan y es posible que fallen si se tarda demasiado en procesarlas.

  • ¿Cómo debo interpretar la cuota de filas por trabajo?

    En BigQuery, una consulta puede ejecutarse durante un máximo de seis horas. El número máximo de filas admitidas depende de esta cronología y de tu cuota de QPM de Vertex AI para asegurar que BigQuery pueda completar el procesamiento de las consultas en seis horas. Como normalmente una consulta no puede usar toda la cuota, este número es inferior a la cuota de QPM multiplicada por 360.

  • ¿Qué ocurre si ejecuto un trabajo de inferencia por lotes en una tabla con más filas que la cuota de filas por trabajo (por ejemplo, 10.000.000 de filas)?

    BigQuery solo procesa el número de filas especificado en la cuota de filas por tarea. Solo se te cobrará por las llamadas a la API que se hayan realizado correctamente para ese número de filas, en lugar de por las 10.000.000 de filas de tu tabla. En el resto de las filas, BigQuery responde a la solicitud con un error A retryable error occurred: the maximum size quota per query has reached que se devuelve en la columna status del resultado. Puedes usar este conjunto de secuencias de comandos SQL o este paquete de Dataform para iterar las llamadas de inferencia hasta que se hayan procesado correctamente todas las filas.

  • Tengo muchas más filas que procesar que la cuota de filas por trabajo. ¿Me ayudará a mejorar el rendimiento si divido las filas en varias consultas y las ejecuto simultáneamente?

    No, porque estas consultas consumen la misma cuota de solicitudes por minuto de BigQuery ML y la misma cuota de QPM de Vertex AI. Si hay varias consultas que se mantienen dentro de la cuota de filas por tarea y de la cuota de tareas simultáneas, el procesamiento acumulativo agota la cuota de solicitudes por minuto.

BI Engine

Se aplican los siguientes límites a BigQuery BI Engine.

Límite Predeterminado Notas
Tamaño máximo de reserva por proyecto y ubicación (BigQuery BI Engine) 250 GiB 250 GiB es el tamaño máximo predeterminado de la reserva por proyecto y ubicación. Puedes solicitar un aumento de la capacidad máxima de reserva de tus proyectos. Los aumentos de reservas están disponibles en la mayoría de las regiones y pueden tardar entre 3 días hábiles y una semana en procesarse.
Número máximo de filas por consulta 7000 millones Número máximo de filas por consulta.

Compartir datos de BigQuery (antes Analytics Hub)

Se aplican los siguientes límites a la función para compartir de BigQuery (antes Analytics Hub):

Límite Predeterminado Notas
Número máximo de intercambios de datos por proyecto 500 intercambios Puede crear hasta 500 intercambios de datos en un proyecto.
Número máximo de fichas por intercambio de datos 1000 fichas Puede crear hasta 1000 fichas en un intercambio de datos.
Número máximo de conjuntos de datos vinculados por conjunto de datos compartido 1000 conjuntos de datos vinculados En conjunto, todos los suscriptores de BigQuery sharing pueden tener un máximo de 1000 conjuntos de datos vinculados por conjunto de datos compartido.

Descubrimiento automático de Dataplex Universal Catalog

Los siguientes límites se aplican a la función de descubrimiento automático de Dataplex Universal Catalog:

Límite Predeterminado Notas
Número máximo de tablas de BigQuery, BigLake o externas por segmento de Cloud Storage que admite un análisis de detección 1000 tablas de BigQuery por contenedor Puedes crear hasta 1000 tablas de BigQuery por cubo de Cloud Storage.

Cuotas y límites de las APIs

Estas cuotas y límites se aplican a las solicitudes a la API BigQuery.

API de BigQuery

Se aplican las siguientes cuotas a las solicitudes a la API BigQuery (principal):

Cuota Predeterminado Notas
Solicitudes diarias Ilimitado Tu proyecto puede hacer un número ilimitado de solicitudes a la API de BigQuery al día.
Ver cuota en la Google Cloud consola
Máximo de tabledata.list bytes por minuto 7,5 GB en multirregiones y 3,7 GB en el resto de las regiones Tu proyecto puede devolver un máximo de 7,5 GB de datos de filas de tablas por minuto a través de tabledata.list en las multirregiones us y eu, y 3,7 GB de datos de filas de tablas por minuto en el resto de las regiones. Esta cuota se aplica al proyecto que contiene la tabla que se lee. La cuota también se consume al usar otras APIs, como jobs.getQueryResults y al obtener resultados con jobs.query y jobs.insert.
Ver cuota en la Google Cloud consola

La API Storage Read de BigQuery puede mantener un rendimiento significativamente mayor que tabledata.list. Si necesitas un mayor rendimiento del permitido por esta cuota, puedes usar la API Read de BigQuery Storage.

Se aplican los siguientes límites a las solicitudes de la API BigQuery (principal):

Límite Predeterminado Notas
Número máximo de solicitudes a la API por segundo, usuario y método 100 solicitudes Un usuario puede enviar hasta 100 solicitudes a la API por segundo a un método de la API. Si un usuario envía más de 100 solicitudes por segundo a un método, se puede limitar el envío. Este límite no se aplica a las inserciones de transmisión.
Número máximo de solicitudes a la API simultáneas por usuario 300 solicitudes Si un usuario realiza más de 300 solicitudes simultáneas, podría limitarse el envío. Este límite tampoco se aplica a las inserciones de transmisión.
Tamaño máximo del encabezado de solicitud 16 KiB Tu solicitud a la API de BigQuery puede tener un tamaño de hasta 16 KiB, incluida la URL de la solicitud y todos los encabezados. Este límite no se aplica al cuerpo de la solicitud, como en una solicitud POST.
Máximo de jobs.get solicitudes por segundo 1000 solicitudes Tu proyecto puede enviar hasta 1000 jobs.get solicitudes por segundo.
Tamaño máximo de la respuesta jobs.query 20 MB De forma predeterminada, no hay un límite máximo de filas de datos que devuelve jobs.query por página de resultados. pero el tamaño de la respuesta sí está limitado a 20 MB. Para cambiar el número de filas que se devuelven, usa el parámetro maxResults.
Tamaño máximo de fila jobs.getQueryResults 20 MB El tamaño máximo de las filas es aproximado porque el límite se basa en la representación interna de los datos de las filas. Este límite se aplica durante la transcodificación.
Máximo de projects.list solicitudes por segundo 10 solicitudes Tu proyecto puede enviar hasta dos solicitudes projects.list por segundo.
Número máximo de solicitudes tabledata.list por segundo 1000 solicitudes Tu proyecto puede enviar hasta 1000 solicitudes tabledata.list por segundo.
Número máximo de filas por respuesta de tabledata.list 100.000 filas Una llamada tabledata.list puede devolver hasta 100.000 filas de tabla. Para obtener más información, consulta Desplazarse por los resultados mediante la API.
Tamaño máximo de fila tabledata.list 100 MB El tamaño máximo de las filas es aproximado porque el límite se basa en la representación interna de los datos de las filas. Este límite se aplica durante la transcodificación.
Máximo de tables.insert solicitudes por segundo 10 solicitudes Un usuario puede hacer hasta 10 solicitudes tables.insert por segundo. El método tables.insert crea una tabla vacía en un conjunto de datos.

API Connection de BigQuery

Las siguientes cuotas se aplican a las solicitudes a la API de conexión de BigQuery:

Cuota Predeterminado Notas
Solicitudes de lectura por minuto 1000 solicitudes por minuto Tu proyecto puede hacer hasta 1000 solicitudes por minuto a los métodos de la API Connection de BigQuery que leen datos de conexión.
Ver cuota en la Google Cloud consola
Solicitudes de escritura por minuto 100 solicitudes por minuto Tu proyecto puede hacer hasta 100 solicitudes por minuto a los métodos de la API de conexión de BigQuery que crean o actualizan conexiones.
Ver cuota en la Google Cloud consola
Conexiones de BigQuery Omni creadas por minuto 10 conexiones creadas por minuto Tu proyecto puede crear hasta 10 conexiones de BigQuery Omni en total entre AWS y Azure por minuto.
Usos de la conexión de BigQuery Omni 500 usos de conexión por minuto Tu proyecto puede usar una conexión de BigQuery Omni hasta 500 veces por minuto. Esto se aplica a las operaciones que usan tu conexión para acceder a tu cuenta de AWS, como consultar una tabla.

API de migración de BigQuery

Se aplican los siguientes límites a la API de migración de BigQuery:

Límite Predeterminado Notas
Tamaño de archivo individual para la traducción de SQL por lotes 10 MB Cada archivo de origen y de metadatos puede tener un tamaño de hasta 10 MB. Este límite no se aplica al archivo ZIP de metadatos generado por la herramienta de extracción de línea de comandos dwh-migration-dumper.
Tamaño total de los archivos de origen para la traducción de SQL por lotes 1 GB El tamaño total de todos los archivos de entrada subidos a Cloud Storage puede ser de hasta 1 GB. Esto incluye todos los archivos de origen y todos los archivos de metadatos si decides incluirlos.
Tamaño de la cadena de entrada para la traducción interactiva de SQL 1 MB La cadena que introduzcas para la traducción interactiva de SQL no debe superar 1 MB. Cuando se realizan traducciones interactivas con la API Translation, este límite se aplica al tamaño total de todas las entradas de cadena.
Tamaño máximo del archivo de configuración para la traducción interactiva de SQL 50 MB Los archivos de metadatos individuales (comprimidos) y los archivos de configuración YAML de Cloud Storage no deben superar los 50 MB. Si el tamaño del archivo supera los 50 MB, el traductor interactivo omite ese archivo de configuración durante la traducción y muestra un mensaje de error. Una forma de reducir el tamaño del archivo de metadatos es usar las marcas —database o –schema para filtrar las bases de datos al generar los metadatos.
Número máximo de sugerencias de Gemini por hora 1000 (se pueden acumular hasta 10.000 si no se usan) Si es necesario, puedes solicitar un aumento de la cuota poniéndote en contacto con el servicio de atención al cliente de Cloud.

Se aplican las siguientes cuotas a la API de migración de BigQuery. En la mayoría de los casos, se aplican los siguientes valores predeterminados. Los valores predeterminados de tu proyecto pueden ser diferentes:

Cuota Predeterminado Notas

EDWMigration Service List Requests per minute

Solicitudes de lista de servicios de migración de EDW por minuto y usuario

12.000 solicitudes

2500 solicitudes

Tu proyecto puede hacer hasta 12.000 solicitudes de lista de la API Migration por minuto.

Cada usuario puede hacer hasta 2500 solicitudes de lista de APIs de migración por minuto.

Ver cuotas en la consola de Google Cloud

Solicitudes Get por minuto del servicio EDWMigration

Solicitudes Get del servicio EDWMigration por minuto y usuario

25.000 solicitudes

2500 solicitudes

Tu proyecto puede hacer hasta 25.000 solicitudes Get a la API Migration por minuto.

Cada usuario puede hacer hasta 2500 solicitudes Get a la API Migration por minuto.

Ver cuotas en la consola de Google Cloud

Otras solicitudes por minuto del servicio de migración de EDW

Otras solicitudes por minuto y usuario del servicio de migración de EDW

25 solicitudes

5 solicitudes

Tu proyecto puede hacer hasta 25 solicitudes a la API Migration por minuto.

Cada usuario puede hacer hasta 5 solicitudes a la API Migration por minuto.

Ver cuotas en la consola de Google Cloud

Solicitudes de traducción de SQL interactivas por minuto

Solicitudes de traducción de SQL interactivas por minuto y usuario

200 solicitudes

50 solicitudes

Tu proyecto puede hacer hasta 200 solicitudes al servicio de traducción de SQL por minuto.

Cada usuario puede hacer hasta 50 solicitudes de servicio de traducción de SQL por minuto.

Ver cuotas en la consola de Google Cloud

API Reservation de BigQuery

Se aplican las siguientes cuotas a las solicitudes a la API Reservation de BigQuery:

Cuota Predeterminado Notas
Solicitudes por minuto por región 100 solicitudes Tu proyecto puede hacer un total de hasta 100 llamadas a métodos de la API BigQuery Reservation por minuto y por región.
Ver cuotas en la Google Cloud consola
Número de llamadas de SearchAllAssignments por minuto y región 100 solicitudes Tu proyecto puede hacer hasta 100 llamadas al método SearchAllAssignments por minuto y región.
Ver cuotas en la Google Cloud consola
Solicitudes de SearchAllAssignments por minuto, región y usuario 10 solicitudes Cada usuario puede hacer hasta 10 llamadas al método SearchAllAssignments por minuto y región.
Ver cuotas en la Google Cloud consola
(En los resultados de búsqueda de la Google Cloud consola, busca por usuario).

API Data Policy de BigQuery

Se aplican los siguientes límites a la API Data Policy (vista previa):

Límite Predeterminado Notas
Número máximo de llamadas dataPolicies.list. 400 solicitudes por minuto y proyecto

600 solicitudes por minuto y organización
Número máximo de llamadas dataPolicies.testIamPermissions. 400 solicitudes por minuto y proyecto

600 solicitudes por minuto y organización
Número máximo de solicitudes de lectura. 1200 solicitudes por minuto y proyecto

1800 solicitudes por minuto y organización
Esto incluye las llamadas a dataPolicies.get y dataPolicies.getIamPolicy.
Número máximo de solicitudes de escritura. 600 solicitudes por minuto y proyecto

900 solicitudes por minuto y organización

Esto incluye llamadas a:

API de IAM

Se aplican las siguientes cuotas cuando se usan las funciones de gestión de identidades y accesos en BigQuery para mostrar y definir las políticas de IAM, así como para probar los permisos de IAM. Las instrucciones del lenguaje de control de datos (DCL) se tienen en cuenta para la cuota de SetIAMPolicy.

Cuota Predeterminado Notas
IamPolicy solicitudes por minuto por usuario 1500 solicitudes por minuto por usuario Cada usuario puede hacer hasta 1500 solicitudes por minuto y proyecto.
Ver la cuota en la Google Cloud consola
IamPolicy solicitudes por minuto y proyecto 3000 solicitudes por minuto y proyecto Tu proyecto puede hacer hasta 3000 solicitudes por minuto.
Ver la cuota en la Google Cloud consola
Una sola región SetIAMPolicy solicitudes por minuto y proyecto 1000 solicitudes por minuto y proyecto Tu proyecto de una sola región puede realizar hasta 1000 solicitudes por minuto.
Ver la cuota en la Google Cloud consola
Multirregión SetIAMPolicy solicitudes por minuto y proyecto 2000 solicitudes por minuto y proyecto Tu proyecto multirregional puede hacer hasta 2000 solicitudes por minuto.
Ver la cuota en la Google Cloud consola
Omnirregión SetIAMPolicy solicitudes por minuto y proyecto 200 solicitudes por minuto y proyecto Tu proyecto multirregional puede hacer hasta 200 solicitudes por minuto.
Ver la cuota en la Google Cloud consola

API Storage Read

Se aplican las siguientes cuotas a las solicitudes de la API Read de BigQuery Storage:

Cuota Predeterminado Notas
Solicitudes de lectura del plano de datos por minuto y usuario 25.000 solicitudes Cada usuario puede hacer hasta 25.000 llamadas ReadRows por minuto por proyecto.
Ver cuota en la Google Cloud consola
Solicitudes de lectura del plano de control por minuto y usuario 5000 solicitudes Cada usuario puede hacer hasta 5000 llamadas a operaciones de metadatos de la API Storage Read por minuto y por proyecto. Las llamadas de metadatos incluyen los métodos CreateReadSession y SplitReadStream.
Ver cuota en la Google Cloud consola

Se aplican los siguientes límites a las solicitudes de la API Read de BigQuery Storage:

Límite Predeterminado Notas
Longitud máxima de filas o filtros 1 MB Cuando usas la API Storage Read CreateReadSession, cada fila o filtro puede tener una longitud máxima de 1 MB.
Tamaño máximo de los datos serializados 128 MB Cuando usas la llamada ReadRows de la API Storage Read, la representación serializada de los datos de un mensaje ReadRowsResponse no puede superar los 128 MB.
Número máximo de conexiones simultáneas 2000 en multirregiones y 400 en regiones Puedes abrir un máximo de 2000 conexiones ReadRows simultáneas por proyecto en las multirregiones us y eu , y 400 conexiones ReadRows simultáneas en otras regiones. En algunos casos, es posible que tengas menos conexiones simultáneas que este límite.
Uso máximo de memoria por flujo 1,5 GB La memoria máxima por flujo es aproximada porque el límite se basa en la representación interna de los datos de las filas. Es posible que las secuencias que utilicen más de 1,5 GB de memoria para una sola fila fallen. Para obtener más información, consulta el artículo Solucionar problemas de recursos superados.

API Storage Write

Se aplican las siguientes cuotas a las solicitudes de la API Storage Write. Las siguientes cuotas se pueden aplicar a nivel de carpeta. Estas cuotas se agregan y se comparten entre todos los proyectos secundarios. Para habilitar esta configuración, póngase en contacto con Cloud Customer Care.

Si tienes previsto solicitar un ajuste de cuota, incluye el mensaje de error de cuota en tu solicitud para agilizar el proceso.

Cuota Predeterminado Notas
Conexiones simultáneas 1000 en una región y 10.000 en una multirregión

La cuota de conexiones simultáneas se basa en el proyecto de cliente que inicia la solicitud de la API Storage Write, no en el proyecto que contiene el recurso del conjunto de datos de BigQuery. El proyecto de inicio es el proyecto asociado a la clave de API o a la cuenta de servicio.

Tu proyecto puede operar con 1000 conexiones simultáneas en una región o con 10.000 conexiones simultáneas en las multirregiones US y EU.

Cuando usas el flujo predeterminado en Java o Go, te recomendamos que uses la multiplexación de la API Storage Write para escribir en varias tablas de destino con conexiones compartidas. De esta forma, se reduce el número total de conexiones necesarias. Si usas el conector de Beam con semántica de al menos una vez, puedes definir UseStorageApiConnectionPool como TRUE para habilitar la multiplexación.

Ver la cuota en la consola de Google Cloud

Puedes ver las métricas de cuotas y límites de uso de tus proyectos en Cloud Monitoring. Selecciona el nombre del límite de conexiones simultáneas en función de tu región. Las opciones son ConcurrentWriteConnectionsPerProject, ConcurrentWriteConnectionsPerProjectEU y ConcurrentWriteConnectionsPerProjectRegion para us, eu y otras regiones, respectivamente.

Te recomendamos que configures alertas para monitorizar el uso y los límites de tu cuota. Además, si tus patrones de tráfico experimentan picos o un crecimiento orgánico regular, puede ser recomendable que aumentes tu cuota entre un 25 y un 50% para gestionar la demanda inesperada.

Rendimiento Rendimiento de 3 GB por segundo en multirregiones y de 300 MB por segundo en regiones Puedes enviar en streaming hasta 3 GBps en las multirregiones us y eu, y 300 MBps en otras regiones por proyecto.
Ver cuota en la Google Cloud consola

Puedes ver las métricas de cuotas y límites de uso de tus proyectos en Cloud Monitoring. Selecciona el nombre del límite de capacidad en función de tu región. Las opciones son AppendBytesThroughputPerProject, AppendBytesThroughputPerProjectEU y AppendBytesThroughputPerProjectRegion para us, eu y otras regiones, respectivamente. La cuota de capacidad de procesamiento de escritura se mide en función del proyecto en el que se encuentra el conjunto de datos de destino, no del proyecto del cliente.

Te recomendamos encarecidamente que configures alertas para monitorizar el uso y los límites de tu cuota. Además, si tus patrones de tráfico experimentan picos o un crecimiento orgánico regular, puede ser recomendable que aumentes tu cuota entre un 25 y un 50% para gestionar la demanda inesperada.


Solicitudes de CreateWriteStream 10.000 por hora, proyecto y región Puedes llamar a CreateWriteStream hasta 10.000 veces por hora,proyecto y región. Si no necesitas la semántica de entrega exactamente una vez, considera la posibilidad de usar el flujo predeterminado. Esta cuota es por hora, pero la métrica que se muestra en la Google Cloud consola es por minuto.
Bytes de flujo pendientes 10 TB en multirregiones y 1 TB en regiones Por cada confirmación que actives, puedes confirmar hasta 10 TB en las multirregiones us y eu, y 1 TB en otras regiones. No hay informes de cuota sobre esta cuota.

Se aplican los siguientes límites a las solicitudes de la API Storage Write:

Límite Predeterminado Notas
Confirmaciones por lotes 10.000 flujos por tabla Puedes confirmar hasta 10.000 flujos en cada llamada BatchCommitWriteStream.
AppendRows tamaño de la solicitud 10 MB El tamaño máximo de la solicitud es de 10 MB.

Inserciones de transmisión

Se aplican las siguientes cuotas y límites cuando transmites datos a BigQuery mediante la API de streaming antigua. Para obtener información sobre las estrategias que puedes seguir para no superar estos límites, consulta el artículo Solucionar errores de cuota. Si superas estas cuotas, recibirás errores quotaExceeded.

Límite Predeterminado Notas
Número máximo de bytes por segundo y proyecto en las multirregiones us y eu 1 GB por segundo

Tu proyecto puede transmitir hasta 1 GB por segundo. Esta cuota es acumulativa en multirregiones concretas. Es decir, la suma de bytes por segundo transmitidos a las tablas de un proyecto en una multirregión no puede superar 1 GB.

Si se supera este límite, se generarán errores del tipo quotaExceeded.

Si es necesario, puedes solicitar un aumento de la cuota poniéndote en contacto con el servicio de atención al cliente de Cloud. Solicita cualquier aumento lo antes posible, al menos dos semanas antes de que lo necesites. El aumento de la cuota tarda en estar disponible, sobre todo si se trata de un aumento significativo.

Número máximo de bytes por segundo y proyecto en el resto de las ubicaciones 300 MB por segundo

Tu proyecto puede enviar datos en streaming a una velocidad de hasta 300 MB por segundo en todas las ubicaciones, excepto en las multirregiones us y eu. Esta cuota es acumulativa en multirregiones concretas; es decir, la suma de bytes por segundo transmitidos a las tablas de un proyecto en una región no puede superar los 300 MB.

Si se supera este límite, se generarán errores del tipo quotaExceeded.

Si es necesario, puedes solicitar un aumento de la cuota poniéndote en contacto con el servicio de atención al cliente de Cloud. Solicita cualquier aumento lo antes posible, al menos dos semanas antes de que lo necesites. El aumento de la cuota tarda en estar disponible, sobre todo si se trata de un aumento significativo.

Tamaño máximo de las filas 10 MB Si se supera este valor, se generarán errores del tipo invalid.
Límite de tamaño de la solicitud HTTP 10 MB

Si se supera este valor, se generarán errores del tipo invalid.

De forma interna, la solicitud se convierte de JSON HTTP a una estructura de datos interna. La estructura de datos convertida cuenta con su propio límite de tamaño obligatorio. Es difícil predecir el tamaño de la estructura de datos interna resultante, pero existen pocas probabilidades de que supere el límite interno si las solicitudes HTTP son iguales o inferiores a 10 MB.

Número máximo de filas por solicitud 50.000 filas Recomendamos usar un máximo de 500 filas. Trabajar por lotes puede aumentar el rendimiento hasta cierto punto, pero a costa de incrementar la latencia por solicitud. El envío de un número demasiado bajo de filas por solicitud y la sobrecarga de cada solicitud pueden provocar una ingestión ineficiente. Si se envían demasiadas filas por solicitud, el rendimiento puede disminuir. Experimenta con datos representativos (tamaños de datos y esquemas) para determinar el tamaño de lote ideal para tus datos.
Longitud del campo insertId 128 caracteres Si se supera este valor, se generarán errores del tipo invalid.

Para obtener más cuota de streaming, consulta Solicitar un aumento de cuota.

Ancho de banda

Las siguientes cuotas se aplican al ancho de banda de replicación:

Cuota Predeterminado Notas
Ancho de banda máximo de replicación de reposición inicial para cada región que tenga salida de datos entre regiones de la réplica principal a las réplicas secundarias. 10 GiBps físicos por región y organización
Ancho de banda de replicación en curso máximo de cada región que tenga salida de datos entre regiones desde la réplica principal a las réplicas secundarias. 5 GiBps físicos por región y organización
Ancho de banda máximo de replicación turbo de cada región que tenga salida de datos entre regiones desde la réplica principal a las réplicas secundarias. 5 GiBps físicos por región y organización La cuota de ancho de banda de replicación Turbo no se aplica a la operación de relleno inicial.

Cuando el ancho de banda de replicación de un proyecto supera una cuota determinada, la replicación de los proyectos afectados puede detenerse y mostrar el error rateLimitExceeded, que incluye detalles sobre la cuota superada.