Consultar datos de Amazon S3
En este documento se describe cómo consultar los datos almacenados en una tabla de BigLake de Amazon Simple Storage Service (Amazon S3).
Antes de empezar
Asegúrate de tener una tabla de BigLake de Amazon S3.
Roles obligatorios
Para consultar tablas de BigLake de Amazon S3, asegúrese de que el llamador de la API de BigQuery tenga los siguientes roles:
- Usuario de conexión de BigQuery (
roles/bigquery.connectionUser
) - Lector de datos de BigQuery (
roles/bigquery.dataViewer
) - Usuario de BigQuery (
roles/bigquery.user
)
La persona que llama puede ser tu cuenta o una cuenta de servicio de conexión de Amazon S3. En función de tus permisos, puedes asignarte estos roles o pedirle a tu administrador que te los asigne. Para obtener más información sobre cómo conceder roles, consulta el artículo Ver los roles que se pueden conceder en los recursos.
Para ver los permisos exactos que se necesitan para consultar tablas BigLake de Amazon S3, despliega la sección Permisos necesarios:
Permisos obligatorios
bigquery.connections.use
bigquery.jobs.create
bigquery.readsessions.create
(Solo es necesario si lees datos con la API de lectura de almacenamiento de BigQuery).bigquery.tables.get
bigquery.tables.getData
También puedes obtener estos permisos con roles personalizados u otros roles predefinidos.
Consultar tablas de BigLake de Amazon S3
Después de crear una tabla de BigLake de Amazon S3, puedes consultarla con la sintaxis de GoogleSQL, como si fuera una tabla estándar de BigQuery.
Los resultados de las consultas almacenados en caché se guardan en una tabla temporal de BigQuery. Para consultar una tabla de BigLake temporal, consulta Consultar una tabla de BigLake temporal. Para obtener más información sobre las limitaciones y cuotas de BigQuery Omni, consulta las limitaciones y las cuotas.
Cuando crees una reserva en una región de BigQuery Omni, usa la edición Enterprise. Para saber cómo crear una reserva con una edición, consulta Crear reservas.
Ejecuta una consulta en una tabla de BigLake de Amazon S3:
SQL
Para consultar la tabla, sigue estos pasos:
En la Google Cloud consola, ve a la página BigQuery.
En el editor de consultas, introduce la siguiente instrucción:
SELECT * FROM DATASET_NAME.TABLE_NAME;
Haz los cambios siguientes:
DATASET_NAME
: el nombre del conjunto de datos que has creadoTABLE_NAME
: el nombre de la tabla que ha creadoHaz clic en
Ejecutar.
Para obtener más información sobre cómo ejecutar consultas, consulta Ejecutar una consulta interactiva.
Java
Antes de probar este ejemplo, sigue las Javainstrucciones de configuración de la guía de inicio rápido de BigQuery con bibliotecas de cliente. Para obtener más información, consulta la documentación de referencia de la API Java de BigQuery.
Para autenticarte en BigQuery, configura las credenciales predeterminadas de la aplicación. Para obtener más información, consulta el artículo Configurar la autenticación para bibliotecas de cliente.
Consultar una tabla temporal
BigQuery crea tablas temporales para almacenar los resultados de las consultas. Para obtener los resultados de las consultas de tablas temporales, puedes usar la consola Google Cloud o la API de BigQuery.
Selecciona una de las opciones siguientes:
Consola
Cuando consultas una tabla de BigLake que hace referencia a datos externos en la nube, puedes ver los resultados de la consulta en la Google Cloud consola.
API
Para consultar una tabla de BigLake mediante la API, sigue estos pasos:
- Crea un objeto Job.
- Llama al método
jobs.insert
para ejecutar la consulta de forma asíncrona o al métodojobs.query
para ejecutarla de forma síncrona. En ambos casos, debes pasar el objetoJob
. - Lee las filas con
jobs.getQueryResults
pasando la referencia de tarea dada y los métodostabledata.list
pasando la referencia de tabla dada del resultado de la consulta.
Consultar la pseudocolumna _FILE_NAME
Las tablas basadas en fuentes de datos externas proporcionan una pseudocolumna llamada _FILE_NAME
. Esta columna contiene la ruta completa del archivo al que pertenece la fila. Esta columna solo está disponible en las tablas que hacen referencia a datos externos almacenados en Cloud Storage, Google Drive, Amazon S3 y Azure Blob Storage.
El nombre de columna _FILE_NAME
está reservado, lo que significa que no puedes crear una columna con ese nombre en ninguna de tus tablas. Para seleccionar el valor de _FILE_NAME
, debe usar un alias. En la siguiente consulta de ejemplo se muestra cómo seleccionar _FILE_NAME
asignando el alias fn
a la pseudocolumna.
bq query \
--project_id=PROJECT_ID \
--use_legacy_sql=false \
'SELECT
name,
_FILE_NAME AS fn
FROM
`DATASET.TABLE_NAME`
WHERE
name contains "Alex"'
Haz los cambios siguientes:
-
PROJECT_ID
es un ID de proyecto válido (esta marca no es obligatoria si usas Cloud Shell o si has definido un proyecto predeterminado en Google Cloud CLI). -
DATASET
es el nombre del conjunto de datos que almacena la tabla externa permanente. -
TABLE_NAME
es el nombre de la tabla externa permanente
Cuando la consulta tiene un predicado de filtro en la pseudocolumna _FILE_NAME
, BigQuery intenta omitir la lectura de los archivos que no cumplen el filtro. Las recomendaciones similares a las de
consultar tablas con particiones por hora de ingestión mediante pseudocolumnas
se aplican al crear predicados de consulta con la pseudocolumna _FILE_NAME
.
Siguientes pasos
- Consulta información sobre cómo usar SQL en BigQuery.
- Consulta información sobre BigQuery Omni.
- Consulta las cuotas de BigQuery.