Documentación de Dataflow

Dataflow es un servicio gestionado para ejecutar una amplia variedad de patrones de tratamiento de datos. En la documentación de este sitio se explica cómo desplegar tus flujos de procesamiento de datos por lotes y en tiempo real con Dataflow, incluidas las instrucciones para usar las funciones del servicio.

El SDK de Apache Beam es un modelo de programación de código abierto que te permite desarrollar flujos de procesamiento por lotes y de streaming. Crea tus flujos de procesamiento con un programa de Apache Beam y, a continuación, ejecútalos en el servicio Dataflow. La documentación de Apache Beam proporciona información conceptual detallada y material de referencia sobre el modelo de programación, los SDKs y otros ejecutores de Apache Beam.

Para conocer los conceptos básicos de Apache Beam, consulta la visita guiada de Beam y Beam Playground. El repositorio Dataflow Cookbook también proporciona flujos de procesamiento listos para ejecutarse y autónomos, así como los casos prácticos más habituales de Dataflow.

Apache, Apache Beam, Beam, el logotipo de Beam y la mascota de Beam son marcas registradas de Apache Software Foundation en Estados Unidos y en otros países.
  • Acceder a Gemini 2.0 Flash Thinking
  • Uso mensual gratuito de productos populares, como las APIs de IA y BigQuery
  • Sin cargos automáticos ni permanencia

Sigue explorando con más de 20 productos Always Free

Accede a más de 20 productos gratuitos para casos prácticos habituales, como APIs de IA, máquinas virtuales, almacenes de datos y más.

Descubre formación a tu ritmo, casos prácticos, arquitecturas de referencia y ejemplos de código sobre cómo usar y conectar Google Cloud servicios.
Uso
Casos prácticos

Con Dataflow, puedes ejecutar tus cargas de trabajo altamente paralelas en una sola canalización, lo que mejora la eficiencia y facilita la gestión de tu flujo de trabajo.

Streaming

Uso
Casos prácticos

Dataflow ML te permite usar Dataflow para desplegar y gestionar flujos de procesamiento de aprendizaje automático completos. Usa modelos de aprendizaje automático para realizar inferencias locales y remotas con flujos de procesamiento por lotes y en streaming. Utiliza herramientas de procesamiento de datos para preparar tus datos para el entrenamiento de modelos y procesar sus resultados.

Aprendizaje automático Streaming

Uso
Casos prácticos

Crea una aplicación de ejemplo de comercio electrónico integral que transmita datos de una tienda web a BigQuery y Bigtable. La aplicación de ejemplo ilustra casos prácticos habituales y prácticas recomendadas para implementar analíticas de datos de streaming e inteligencia artificial (IA) en tiempo real.

Comercio electrónico Streaming

Vídeos relacionados