Documentación de Dataflow
Dataflow es un servicio gestionado para ejecutar una amplia variedad de patrones de tratamiento de datos. En la documentación de este sitio se explica cómo desplegar tus flujos de procesamiento de datos por lotes y en tiempo real con Dataflow, incluidas las instrucciones para usar las funciones del servicio.
El SDK de Apache Beam es un modelo de programación de código abierto que te permite desarrollar flujos de procesamiento por lotes y de streaming. Crea tus flujos de procesamiento con un programa de Apache Beam y, a continuación, ejecútalos en el servicio Dataflow. La documentación de Apache Beam proporciona información conceptual detallada y material de referencia sobre el modelo de programación, los SDKs y otros ejecutores de Apache Beam.
Para conocer los conceptos básicos de Apache Beam, consulta la visita guiada de Beam y Beam Playground. El repositorio Dataflow Cookbook también proporciona flujos de procesamiento listos para ejecutarse y autónomos, así como los casos prácticos más habituales de Dataflow.
Empieza tu prueba de concepto con 300 USD en crédito gratis
- Acceder a Gemini 2.0 Flash Thinking
- Uso mensual gratuito de productos populares, como las APIs de IA y BigQuery
- Sin cargos automáticos ni permanencia
Sigue explorando con más de 20 productos Always Free
Accede a más de 20 productos gratuitos para casos prácticos habituales, como APIs de IA, máquinas virtuales, almacenes de datos y más.
Recursos de documentación
Guías
Recursos relacionados
Ejecutar cargas de trabajo de HPC altamente paralelas
Con Dataflow, puedes ejecutar tus cargas de trabajo altamente paralelas en una sola canalización, lo que mejora la eficiencia y facilita la gestión de tu flujo de trabajo.
Ejecutar inferencias con Dataflow ML
Dataflow ML te permite usar Dataflow para desplegar y gestionar flujos de procesamiento de aprendizaje automático completos. Usa modelos de aprendizaje automático para realizar inferencias locales y remotas con flujos de procesamiento por lotes y en streaming. Utiliza herramientas de procesamiento de datos para preparar tus datos para el entrenamiento de modelos y procesar sus resultados.
Crear un flujo de procesamiento de streaming de comercio electrónico
Crea una aplicación de ejemplo de comercio electrónico integral que transmita datos de una tienda web a BigQuery y Bigtable. La aplicación de ejemplo ilustra casos prácticos habituales y prácticas recomendadas para implementar analíticas de datos de streaming e inteligencia artificial (IA) en tiempo real.